苹果发布ARKit 4,带来LiDAR Depth API,让虚实遮挡更逼真
查看引用/信息源请点击:映维网
深度信息可以令虚拟对象遮挡更为逼真
(映维网 2020年06月23日)苹果在今天凌晨的开发者大会WWDC上发布了ARKit 4,而你将能通过全新的Depth API访问iPad Pro搭载的激光雷达扫描仪(LiDAR)的详细深度信息。
激光雷达扫描仪(LiDAR)内置的高级场景理解功能允许Depth API利用关于周遭环境的每像素深度信息。当与场景几何体生成的三维网格数据相结合时,通过启用虚拟对象的即时放置并将与物理环境无缝混合,深度信息可以令虚拟对象遮挡更为逼真。这可以支持应用程序部署全新的功能,比如更精确的测量和将效果应用到用户环境中。
除了Depth API,ARKit 4还带来了Location Anchoring功能和更好的面部跟踪支持。
Location Anchoring利用了苹果地图中更高分辨率的数据,可以通过iPhone和iPad应用将AR体验置放于某个世界特定点,如著名地标的旁边。它允许你在特定的纬度、经度和高度坐标锚定AR内容。用户可以在虚拟对象周围移动,并从不同的角度查看它们,一切都如同通过摄像头看到的真实对象一样。该功能需要iPhone XS, iPhone XS Max, iPhone XR或更新版本,并且只支持特定的城市。
对面部跟踪的支持已经扩展到所有搭载A12仿生芯片或更新版本的设备的前置摄像头,包括新款iPhone SE,这样更多用户都可以通过前置摄像头享受AR体验。