Snap发布AR创作工具Lens Studio 3.2,支持LiDAR版iPhone 12
构建可以利用LiDAR的Lens
(映维网 2020年10月15日)备受期待的iPhone 12 Pro终于亮相。这款苹果手机的最大特点之一是它搭载了激光雷达扫描仪LiDAR。苹果表示,LiDAR意味着手机能够支持“即时AR”。这是因为LiDAR能够以相当于“拍摄一张照片”的方式捕捉深度信息,无需任何手机移动,无需跨时间对比图像。
针对这一点,正在积极开拓增强现实领域的Snapchat迅速跟上并发布了Lens Studio 3.2,从而帮助AR创作者和开发者为iPhone 12 Pro构建可以利用LiDAR的Lens滤镜。
LiDAR是一种所谓的“飞行时间”深度传感器,它主要测量光线从场景对象反弹并返回至传感器所需的时间。通过精确的计时,相关信息可用来判断每个点的深度。丰富的深度信息将能提升增强现实体验的响应速度和精度。
它能够支持沉浸式AR体验更加无缝地叠加到现实世界。换句话说,它可以帮助Snapchat的摄像头功能进一步理解场景的公制比例网格,曲面和对象的几何体和含义。再利用A14芯片和ARKit的强大性能,现在你可以实时渲染数千个AR对象,从而为整个Snapchat社区创建神奇的沉浸式环境。
Lens Studio 3.2现在已经支持苹果的iPhone 12系列,允许创作者和开发者构建能够利用LiDAR的Lens滤镜。另外,利用Lens studio3.2中的交互预览模式,你在创建Lens后可立即预览。
Snap的Camera Platform业务高级副总裁Eitan Pilipski表示:“iPhone12 Pro机型的LiDAR能够促使增强现实的创造力迈上了一个全新的台阶。我们非常高兴与苹果合作,共同将这项尖端技术带到我们的Lens创造者社区。”
Lens Studio 3.2现已开放下载。这个页面提供了创建相关Lens的模板。