雨果·巴拉:行业北极星Vision Pro过度设计不适合产品市场

Oculus Avatars SDK改名Meta Avatars SDK,正式向Unity开发者开放

查看引用/信息源请点击:映维网

正式向Unity开发者开放

映维网 2021年12月14日)原来的Oculus Avatars SDK已改名为Meta Avatars SDK,并于日前正式向Unity开发者开放。所有Meta Store或App Lab开发者现在可以马上开始集成Avatars。

Meta是在今年4月发布了全新的Avatars,带来了表现力更强,定制性更高,多样性更广的全新版本虚拟化身。

1. 数以亿计的组合

到目前为止,Avatars的最大变化是可定制的数量。这个星球拥有数十亿个独一无二的个体,尽管现在远未达到,但全新版本的Avatars将比以往任何时候都更能体现这种多样性。

一切都将从面容开始。全新的Avatar Editor可允许你单独改变各个面部特征。你可以自由选择合适的眼睛,鼻子,嘴巴,甚至皱纹。团队同时增加了新的体型、发型、胡须、妆容和服装等等。

团队希望你能够创造一个真实的虚拟化身来展现自己。这不一定是真实的外表,重点是你能够自由选择如何在虚拟现实中展现自己。对有些人来说,这是指合适的发型;对于其他人来说,这是指一顶完美的帽子,甚至是一件带有火烈鸟图案的海泡石绿衬衫。

当你打开编辑器后,你可以看到双腿的存在,但在其他地方,系统只会显示上半身(至少现在是这样)。你可以在编辑中选择体型,从头到脚地定制自己喜欢的风格。

全新版本的Avatars支持1000000000000000000(后面是18个0)种组合。若你依然未能找到最合适自己的风格,不用担心,团队将在未来增加更多的选择。

2. 扩展支持范围

团队同时在扩展Avatars的支持范围,因为你的虚拟化身就是你在虚拟现实世界的表示,它需要能够在任意数字世界作为你本人的代表。

Meta正在逐步铺开Avatars的应用支持,并已经在与一系列的开发者合,从而在虚拟现实中创造一个更为统一、更有凝聚力的社交空间。

3. 更为流畅的动作

你或许已经注意到虚拟化身的动作比以前更为流畅。如果是,这将是对基于机器学习的运动预测技术的肯定。

尝试模仿人体在现实生活中的运动方式是一个巨大的技术挑战。团队投入了大量时间研究身体运动,并利用相关知识训练模型,根据头显和控制器的位置来预测肩膀和肘部的位置。

Meta Avatars能够解释手部追踪、控制器追踪和音频输入,以驱动高表现力虚拟化身模型。自定义IK算法有助于确保虚拟化身的身体位置和面部表情尽可能逼真,并且算法可以随时间推移而不断改进优化。

结果是一个更加灵活的虚拟化身。这不是因为硬件方面的改动,而是基于机器学习的根据性运动预测。团队表示,接下来将继续努力,进一步提升数字角色的身体运动合理性和真实性。

4. SDK中包含什么

4.1 Unity插件

Meta Avatars Unity插件包括预置、脚本和asset等,以及数个示例,包括:

  • 单虚拟化身镜像场景

  • 自定义手势

  • 通过Meta的web API加载自定义虚拟化身

  • 网络环回

  • 注视点追踪

4.2 参考化身

SDK包含32个可在开发过程中使用,并在发行产品中免费使用的示例化身。所述示例化身代表了用户可以创建的自定义化身的质量,同时又可以用作NPC的预设。需要注意的是,这里的NPC是指不想自定义虚拟化身的用户,或者非Meta平台登录用户(如SteamVR)。

4.3 文档

具体请访问这一页面

5. 如何获取SDK

请通过这一页面下载Meta Avatars Unity SDK及文档。另外,如果你有任何问题或反馈,你随时都可以访问开发者论坛

本文链接https://news.nweon.com/92515
转载须知:转载摘编需注明来源映维网并保留本文链接
素材版权:除额外说明,文章所用图片、视频均来自文章关联个人、企业实体等提供
QQ交流群苹果Vision  |  Meta Quest  |  微软HoloLens  |  AR/VR开发者  |  映维粉丝读者

您可能还喜欢...

资讯