雨果·巴拉:行业北极星Vision Pro过度设计不适合产品市场

Meta Quest MR功能全升级,赋能输入交互、动捕追踪等

查看引用/信息源请点击:映维网Nweon

高保真的上半身追踪,更自然和响应的交互,以及逼真的双腿等等

映维网Nweon 2023年09月29日)在Connect大会中,Meta宣布了一系列对Presence Platform功能的升级,从而赋能下一代头显的输入、交互和动捕,包括高保真的上半身追踪,更自然和响应的交互,以及逼真的双腿等等。下面是相关的介绍:

加强休闲游戏和建立社交存在使用双腿

多年来,在VR中产生准确的腿部运动一直是一个难以解决的问题。Meta正在积极解决这个问题,并且无需你使用任何额外的硬件或增加用户摩擦:使用来自上半身的信息来生成下半身可能在执行的动作。与基于IK的方法相比,你很快就能做出更自然的动作。

你可以使用Generative Legs来为用户整合自然的腿部运动,并且只需使用他们的上半身位置。这对社交体验和健身应用存在直接影响,因为Avatar将能准确地映射站立、行走、跳跃等常见的腿部运动。它同时增强了休闲游戏体验,允许用户在自由走动,探索和交互时沉浸其中。

当然,因为这是生成式双腿而不是实际追踪双腿,所以无法捕获某些细微的动作。然而,Meta表示他们相信这种方法可以成功地应用于Quest 3、Quest Pro、甚至Quest 2的各种社交和游戏体验,并通过呈现他们的腿部动作来给用户一种增强的临场感。

通过Inside-Out Body Tracking提供高保真和自然的运动

在Quest 3中,Meta提供了一种所谓的内向外身体追踪(Inside-Out Body Tracking/IOBT)。这是一种利用头显摄像头来精确追踪上半身的方法,并产生了比Quest 2和Quest Pro更准确和自然的追踪系统,因为后者只是使用手和/或控制器,以及头显的运动来推断用户的身体姿势。这意味着你将能首次在体验中区分复杂和微妙的动画,包括手肘和手腕运动的动画。

通过提高上半身追踪的准确性,IOBT可以产生立竿见影的效果,帮助你的用户更自然地跳跃、跳舞或走动。即便是在摄像头视场之外,IOBT都能够通过推断手臂和手的位置来增强现有的功能。

Movement SDK为你提供了开箱即用的动捕工具,而Quest 3的IOBT提供了允许棒球挥动看起来流畅,空手道劈看起来精确,挥手打招呼看起来更加友好的能力。

增加沉浸与改进手部追踪响应

Meta在8月发布了Hand Tracking v2.2和v56,这是一个重大升级,将延迟改善了40%到75%,显著减少了控制器和裸手交互之间的用户体验差距。Meta同时推出了Fast Motion Mode这种高频追踪功能,从而提高快节奏游戏的响应性。

但团队依然在积极优化。在Meta Quest 3中,你很快就可以使用Wide Motion Mode模式来追踪在视场之外的双手,从而实现无缝的手部追踪和响应。

通过直观和自然的交互解锁更无缝的体验

Interaction SDK允许你轻松地在应用体验中添加基于控制器和手部的交互,包括戳、抓以及其他可供选择的交互。从2024年开始,Meta将开始增加对全新微手势的支持,如拇指滑动,手指点击等。这样你就可以实现简单而微妙的动作,减少重复交互带来的疲劳,并为人们创造一种更简单的方式来参与你的体验。

说到自然地运动,v57同时增加了对Direct Touch的支持。Meta表示,他们相信Direct Touch可以让2D交互在应用中变得更有趣,并且为了让它更容易采用,团队在Interaction SDK中提供了所有Direct Touch原语。

Interaction SDK的库允许你构建独特的,引人入胜的游戏玩法,同时为用户提供以不同方式与应用程序环境交互的灵活性。Meta表示,将从v57开始提供Building Block。这是为Presence Platform的最常见用例预先配置的预制件。

结合控制器和手的力量

为了支持Meta Quest 3及以后迭代的沉浸感,Meta一直在开发新的功能来帮助你解锁手部和基于控制器的体验。Meta最近推出了全新的实验性功能Multimodal SDK v56,它可以同时提供手和控制器追踪。这意味着你可以开发出玩家可以用一只手进行输入而另一只手使用控制器进行输入的玩法。如果你的受众想要改变节奏,它同时可以允许用户在两者之间迅速转换。

另外,有了Capsense-Driven Hands,你会得到符合Meta控制器模型的自然手部姿势。这使得你可以在用户的控制器之上集成手部可视化或者直接替代控制器。

这两个功能都将在未来几个月内发布。

激活声音输入

输入不仅包括手和控制器,同时包括将人们的声音作为与应用环境交互的输入方法,这可以使游戏更具沉浸感,并为不同的用户提供更易于访问的体验。

诸如Voice Command和Dictation等Voice SDK功能允许用户轻松地与角色和对象进行交互,而文本到语音TTS则可以通过为游戏角色提供声音而赋予体验活力。

Meta限制增加了15个TTS语音,从而令相关库翻倍。很快,你就可以使用 Voice Cloning来创建全新的自定义TTS语音,而这一切只需要20分钟的录音。

值得一提的是,如果你是First Access项目的成员,请联系你的Meta代表,从而了解更多相关计划以及如何尝试Voice Cloning。

Touch Plus控制器

Quest 3的Touch Plus控制器可以允许你激活各种各样的振动和先进触觉,这样你的受众就能感受到乐趣并得到反馈。借助Meta Haptics Studio和Haptics SDK,你可以设计,试用和集成高质量的触觉。这种应用程序向后兼容所有Meta Quest设备。

Meta Haptics Studio是一个独立的PC和Mac桌面应用程序,可允许你从现有的音频创建触觉效果。为了帮助你入门,它包括一个内置的库和教程。另一方面,Haptics SDK使你能够将触觉和效果整合到应用中,并提供相关API来触发和控制触觉。更多信息请查看文档: Meta Haptics Studio和Haptics SDK(UnrealUnityNative)。

本文链接https://news.nweon.com/113291
转载须知:转载摘编需注明来源映维网并保留本文链接
素材版权:除额外说明,文章所用图片、视频均来自文章关联个人、企业实体等提供
QQ交流群苹果Vision  |  Meta Quest  |  微软HoloLens  |  AR/VR开发者  |  映维粉丝读者

您可能还喜欢...

资讯