Oculus Avatars SDK改名Meta Avatars SDK,正式向Unity开发者开放
正式向Unity开发者开放
(映维网 2021年12月14日)原来的Oculus Avatars SDK已改名为Meta Avatars SDK,并于日前正式向Unity开发者开放。所有Meta Store或App Lab开发者现在可以马上开始集成Avatars。
Meta是在今年4月发布了全新的Avatars,带来了表现力更强,定制性更高,多样性更广的全新版本虚拟化身。
1. 数以亿计的组合
到目前为止,Avatars的最大变化是可定制的数量。这个星球拥有数十亿个独一无二的个体,尽管现在远未达到,但全新版本的Avatars将比以往任何时候都更能体现这种多样性。
一切都将从面容开始。全新的Avatar Editor可允许你单独改变各个面部特征。你可以自由选择合适的眼睛,鼻子,嘴巴,甚至皱纹。团队同时增加了新的体型、发型、胡须、妆容和服装等等。
团队希望你能够创造一个真实的虚拟化身来展现自己。这不一定是真实的外表,重点是你能够自由选择如何在虚拟现实中展现自己。对有些人来说,这是指合适的发型;对于其他人来说,这是指一顶完美的帽子,甚至是一件带有火烈鸟图案的海泡石绿衬衫。
当你打开编辑器后,你可以看到双腿的存在,但在其他地方,系统只会显示上半身(至少现在是这样)。你可以在编辑中选择体型,从头到脚地定制自己喜欢的风格。
全新版本的Avatars支持1000000000000000000(后面是18个0)种组合。若你依然未能找到最合适自己的风格,不用担心,团队将在未来增加更多的选择。
2. 扩展支持范围
团队同时在扩展Avatars的支持范围,因为你的虚拟化身就是你在虚拟现实世界的表示,它需要能够在任意数字世界作为你本人的代表。
Meta正在逐步铺开Avatars的应用支持,并已经在与一系列的开发者合,从而在虚拟现实中创造一个更为统一、更有凝聚力的社交空间。
3. 更为流畅的动作
你或许已经注意到虚拟化身的动作比以前更为流畅。如果是,这将是对基于机器学习的运动预测技术的肯定。
尝试模仿人体在现实生活中的运动方式是一个巨大的技术挑战。团队投入了大量时间研究身体运动,并利用相关知识训练模型,根据头显和控制器的位置来预测肩膀和肘部的位置。
Meta Avatars能够解释手部追踪、控制器追踪和音频输入,以驱动高表现力虚拟化身模型。自定义IK算法有助于确保虚拟化身的身体位置和面部表情尽可能逼真,并且算法可以随时间推移而不断改进优化。
结果是一个更加灵活的虚拟化身。这不是因为硬件方面的改动,而是基于机器学习的根据性运动预测。团队表示,接下来将继续努力,进一步提升数字角色的身体运动合理性和真实性。
4. SDK中包含什么
4.1 Unity插件
Meta Avatars Unity插件包括预置、脚本和asset等,以及数个示例,包括:
-
单虚拟化身镜像场景
-
自定义手势
-
通过Meta的web API加载自定义虚拟化身
-
网络环回
-
注视点追踪
4.2 参考化身
SDK包含32个可在开发过程中使用,并在发行产品中免费使用的示例化身。所述示例化身代表了用户可以创建的自定义化身的质量,同时又可以用作NPC的预设。需要注意的是,这里的NPC是指不想自定义虚拟化身的用户,或者非Meta平台登录用户(如SteamVR)。
4.3 文档
具体请访问这一页面。
5. 如何获取SDK
请通过这一页面下载Meta Avatars Unity SDK及文档。另外,如果你有任何问题或反馈,你随时都可以访问开发者论坛。