高通正式推出骁龙Spaces全新功能Dual Render Fusion
智能手机充当了增强现实体验的控制器,从而允许用户使用熟悉的移动UI和手势来选择在增强现实中看到的内容
(映维网Nweon 2023年06月07日)高通日前宣布,骁龙Spaces的全新功能Dual Render Fusion已经正式可用。据悉,开发者和用户在智能手机屏幕以2D方式运行新的或现有的应用程序,同时在增强现实中以3D方式显示额外的内容。
它允许智能手机屏幕成为AR应用程序的主要输入,而AR眼镜则充当次要增强显示器。换句话说,智能手机充当了增强现实体验的控制器,从而允许用户使用熟悉的移动UI和手势来选择在增强现实中看到的内容。举个例子,假设你正在使用地图应用程序进行游览观光。有了Dual Render Fusion,你可以像往常一样使用手机浏览地图,同时在AR中看到历史地点的3D重建。
为什么要在你的AR体验中使用Dual Render Fusion?
所述功能允许开发者轻松地将2D移动应用扩展到3D空间体验,无需创建新的空间UI。这同时是AR开发者第一次获得将多模态输入与智能手机和AR眼镜同步渲染相结合的工具。
有了Dual Render Fusion,几乎没有AR知识的Unity开发者都可以轻松地使用几行额外的代码来为现有应用添加AR层。所述功能可以更好地控制应用程序在3D空间中的行为,大大降低了AR的进入门槛。
不仅只是这样,在使用所述功能时,你可以选择利用Snapdragon Spaces SDK启用的所有可用输入,包括手部追踪,空间映射和网格,平面检测和图像追踪,或者充分利用移动触控屏的便利性来进行所有输入。
为什么它十分重要?
在以往,开发者需要大量的学习才能进入移动AR,甚至需要更多的时间来重新思考如何将空间设计原则应用于头戴式AR。这同样适用于最终用户,因为他们需要熟悉新的空间UX/UI和输入。
所以,如果能够允许大多数开发者创建智能手机用户可以轻松访问的应用程序,这将释放智能手机AR的巨大潜力。骁龙Spaces团队一直在努力重新构想智能手机AR的现状,并将手机与AR眼镜融合在一起,而Dual Render Fusion功能可以做到这一点:将智能手机触控屏的简单性和熟悉性融合在一起,同时利用增强现实的最佳功能。
高通表示:“Dual Render Fusion释放了智能手机AR的全部潜力,使得我们能够加入并激活数百万移动开发者的未开发市场。”
Dual Render Fusion(实验性)目前已经提供beta版本,作为Snapdragon Spaces SDK for Unity version 0.13.0及以上的可选附加包。你可以通过这个页面立即下载,并浏览相关文档。同时,你可以随时访问相关Discord频道。