雨果·巴拉:行业北极星Vision Pro过度设计不适合产品市场

开发者利用iPhone X和Xsens惯性动捕技术实现全身动捕

文章相关引用及参考:digitalartsonline

第三方应用开发商和创作者一直在探索原深感摄像头的可能性

映维网 2018年08月10日)iPhone X及其原深感摄像头和面部识别软件面世尚不足一年时间,而自这台手机上市以来,第三方应用开发商和创作者就开始在探索原深感摄像头的可能性。

如果你好奇iPhone X能否用于动捕,你可以体验一下由洛杉矶VR工作室Kite & Lightning联合创始人科里·斯特拉斯堡(Cory Strassburger)首创的一种技术。利用iPhone X和Xsens惯性动捕技术,科里证明了你可以实现全身动捕,包括面部表情,其中最终动画角色可通过IKINEMA LiveAction进行直播。这一切都能在实时进行,正如视频所示。

这种方法依赖于DIY动捕头盔,以一台iPhone X对准用户的面部,通过Xsens MVN系统和IKINEMA LiveAction来直播,并在Unreal中重新校准动作。通过这种设置,用户可以随时随地地开演。另外,科里将在今年的Siggraph大会演示这项技术。

如果你对面部捕捉感兴趣,你可以尝试一下Live Face。由Realallusion于6月发行的免费应用直接将面部追踪数据实时馈送给Mac或PC,将你的iPhone X作为热点,连接到计算机并通过Wi-Fi追踪脸上的数据点。

需要注意的是,终端数据是由Reallusion的CrazyTalk Animator 3套件接收和处理。目前Live Face仅兼容这款软件,意味着你需要首先在App Store上花费89.99美元的价格来购买CrazyTalk Animator 3套件。

另一个面部捕捉的选择是Maxon的CV-AR。这款免费应用同样在6月发行,软件捕获你的面部动画并将其发送到C4D,包括纹理和声音,而数据则存储在本地应用程序。

CV-AR

这款应用程序旨在令面部动画的捕获和传输尽可能无缝和轻松。你只需扫描二维码即可进行传输,没有热点或USB选项。

一个更低调的版本是来自独立开发者Niels Jansson的Face Cap。这非常有趣,因为它的输出不仅可以用于C4D,还可以用于Lightwave 3D,Autodesk Maya,Houdini和Blender。

借助Face Cap,你可以录制50种不同的面部表情,录制持续时间最长为10分钟。它将通用网格,混合形状和动画导出为Ascii-fbx,并提供本机IOS共享界面,这样你就可以通过电子邮件发送内容。

本文链接https://news.nweon.com/49071
转载须知:转载摘编需注明来源映维网并保留本文链接
素材版权:除额外说明,文章所用图片、视频均来自文章关联个人、企业实体等提供
QQ交流群苹果Vision  |  Meta Quest  |  微软HoloLens  |  AR/VR开发者  |  映维粉丝读者
资讯