Unity AR Foundation开始支持ARKit 3.0
查看引用和消息源请点击:映维网
你可以通过AR Foundation尝试ARKit 3.0新功能
(映维网 2019年06月08日)在ARKit 3的开发过程中,Unity一直与苹果保持紧密的合作关系。在这篇文章中,映维网将详细介绍最新的ARKit功能,以及如何通过AR Foundation 2.2和Unity 2019.1或以上版本进行访问。Unity 2018.4的用户可以通过AR Foundation 1.5访问ARKit 3的新功能。
ARKit 3和AR Foundation 2.2支持的新功能包括:动捕;人体遮挡;面部追踪优化,包括多面容追踪;协作式会话;其他优化等。
1. 动捕
ARKit 3的主要功能侧重于通过识别真人来提升AR体验。一项令人感到兴奋的新功能是动捕,它可以支持AR Foundation应用通过摄像头识别人体的2D(屏幕空间)或3D(世界空间)表示。
对于2D检测,含有屏幕空间坐标的十七关节结构将用于表示人体。对于3D检测,含有世界空间变换的九十三关节结构将用于表示人体。
为了表现这种全新的功能,AR Foundation新增了Human Body Subsystem。
这项功能仅适用于搭载A12芯片和苹果神经引擎的新款iOS设备。AR Foundation应用程序可以在运行时查询Human Body Subsystem描述符,从而确定相关的iOS设备是否支持人体姿势估计。
2. 人体遮挡
除了动捕,AR Foundation人体子系统同时为应用程序提供了人体模板和深度分割图像。模板分割图像可以识别每个像素是否包含人体。深度分割图像则包括人体像素与设备之间的估计距离。两者结合可以实现逼真的3D内容遮挡。
模板图像本身可用于创建视觉效果,例如人物的描边或着色。
人体遮挡功能仅支持搭载A12芯片和苹果神经引擎的iOS设备。
3. 面部追踪优化
ARKit 3在多个方面扩展了iPhone XS,iPhone XR,iPhone XS Max和最新iPad Pro的面部追踪支持。
首先,前面的原深感摄像头在面部追踪会话期间可以识别最多三个不同的面部。你可以通过AR Foundation Face Subsystem指定要同时追踪的最大面部数量。
面部追踪最重要变化是,在配置为世界追踪的会话期间,原深感摄像头将能用于面部追踪。这样你就可以通过前置摄像头捕获用户的面容,然后用来驱动利用后置摄像头渲染的角色的面部表情。
面部追踪优化功能仅支持搭载A12芯片和苹果神经引擎的iOS设备。
4. 协作式会话
对于ARKit 2,ARWorldMap成为了你与其他用户共享环境快照的方法。ARKit 3通过协作式会话进一步提升了所述功能。现在,多个互联的ARKit应用程序可以持续交换它们对环境的理解。在AR Foundation中,设备能够实时共享AR Reference Point。为了方便发布和接受所述更新,Session Subsystem的ARKit实现已经提供了相关的API。
要将更新传达给每个互联的客户端,AR Foundation应用程序必须实现首选的联网技术。对于互联游戏的各种联网解决方案,请浏览Unity Asset Store。
5. 其他优化
ARKit 3为现有系统带来了其他优化。
图像追踪和对象检测功能都实现了显著的精度和性能提升。对于ARKit 3,设备一次最多可检测100张图像。AR Foundation框架将自动启用所述的优化。
另外,对象检测已经变得更加稳定,可以更可靠地识别复杂环境中的对象。最后,ARKit追踪的环境探针现在将为每个探针的环境纹理生成HDR立方体贴图。你可以通过AR Foundation Environment Probe Subsystem禁用HDR环境纹理。
现在开始,你可以通过AR Foundation尝试新功能。值得一提是,Unit已经把更多的示例演示托管至GitHub。