雨果·巴拉:行业北极星Vision Pro过度设计不适合产品市场

Snap发布AR创作工具Lens Studio 3.2,支持LiDAR版iPhone 12

查看引用/信息源请点击:映维网

构建可以利用LiDAR的Lens

映维网 2020年10月15日)备受期待的iPhone 12 Pro终于亮相。这款苹果手机的最大特点之一是它搭载了激光雷达扫描仪LiDAR。苹果表示,LiDAR意味着手机能够支持“即时AR”。这是因为LiDAR能够以相当于“拍摄一张照片”的方式捕捉深度信息,无需任何手机移动,无需跨时间对比图像。

针对这一点,正在积极开拓增强现实领域的Snapchat迅速跟上并发布了Lens Studio 3.2,从而帮助AR创作者和开发者为iPhone 12 Pro构建可以利用LiDAR的Lens滤镜。

LiDAR是一种所谓的“飞行时间”深度传感器,它主要测量光线从场景对象反弹并返回至传感器所需的时间。通过精确的计时,相关信息可用来判断每个点的深度。丰富的深度信息将能提升增强现实体验的响应速度和精度。

它能够支持沉浸式AR体验更加无缝地叠加到现实世界。换句话说,它可以帮助Snapchat的摄像头功能进一步理解场景的公制比例网格,曲面和对象的几何体和含义。再利用A14芯片和ARKit的强大性能,现在你可以实时渲染数千个AR对象,从而为整个Snapchat社区创建神奇的沉浸式环境。

Lens Studio 3.2现在已经支持苹果的iPhone 12系列,允许创作者和开发者构建能够利用LiDAR的Lens滤镜。另外,利用Lens studio3.2中的交互预览模式,你在创建Lens后可立即预览。

Snap的Camera Platform业务高级副总裁Eitan Pilipski表示:“iPhone12 Pro机型的LiDAR能够促使增强现实的创造力迈上了一个全新的台阶。我们非常高兴与苹果合作,共同将这项尖端技术带到我们的Lens创造者社区。”

Lens Studio 3.2现已开放下载。这个页面提供了创建相关Lens的模板。

本文链接https://news.nweon.com/78921
转载须知:转载摘编需注明来源映维网并保留本文链接
素材版权:除额外说明,文章所用图片、视频均来自文章关联个人、企业实体等提供
QQ交流群苹果Vision  |  Meta Quest  |  微软HoloLens  |  AR/VR开发者  |  映维粉丝读者

您可能还喜欢...

资讯