VRGaussianAvatar:用一张照片生成3D虚拟人,实现实时VR驱动

PICO 4 Ultra

查看引用/信息源请点击:映维网Nweon

需一张普通照片,就能快速生成全身3D虚拟人,并且仅靠VR头显自身的传感器就能实时驱动

映维网Nweon 2026年03月18日)在虚拟现实中,一个看起来像自己、动作也同步的虚拟化身,能极大提升沉浸感和社交体验。过去要生成这样的“数字替身”,往往需要复杂的设备、长时间的视频录制,或者最终效果不够逼真。如今,韩国科学技术院和苏黎世联邦理工学院等机构组成的研究团队带来了一套名为VRGaussianAvatar的新方案,只需一张普通照片,就能快速生成全身3D虚拟人,并且仅靠VR头显自身的传感器就能实时驱动。

VRGaussianAvatar:用一张照片生成3D虚拟人,实现实时VR驱动

传统方法中,想要在VR里拥有一个高精度的虚拟人,要么需要专业的多相机阵列,要么依赖耗时的视频处理。VRGaussianAvatar则大幅简化了流程:用户只需提供一张正面全身照,系统在10秒内就能完成3D高斯飞溅模型的构建。这个模型不仅还原了用户的面容、衣着细节,还能通过标准的骨骼绑定进行动画驱动。

更关键的是,在运行时,系统仅依靠商用VR头显内置的头手追踪信号,通过逆向运动学算法推算出全身姿态,完全不需要额外的手柄或外部追踪器。这意味着用户戴上头显后,就能立刻“进入”自己的虚拟身体,动作实时同步。

另外,VR渲染需要同时为左眼和右眼生成画面,计算负担很重。为了让3D高斯飞溅这种高质量的渲染技术能在VR中流畅运行,团队提出了“双目批处理”策略:将左右眼的渲染合并到一个批次中完成,共享大部分数据,从而减少重复计算和内存开销。测试显示,在1024×1024的分辨率下,系统能以近40帧/秒的速度运行,满足VR交互的实时性要求。

VRGaussianAvatar采用前后端分离的架构:VR前端负责传感器数据读取和姿态解算,高斯后端正则专注于3D模型的渲染。前后端通过本地通信协同工作,既保证了交互的实时性,又便于后期升级或替换不同的人体重建算法。

在实验中,团队将VRGaussianAvatar与两种主流的网格建模方案(基于视频和基于图像的重建)进行了对比。参与者分别以“自我”和“他人”两种虚拟化身执行指定动作,并填写了关于虚拟身体拥有感、代理感、相似性等的问卷。

结果一致表明,VRGaussianAvatar在多项指标上显著优于基线方法。参与者普遍感觉该方案生成的虚拟化身更像自己,动作更自然,身体归属感也更强。即使在扮演“他人”化身时,它的逼真度和同步性也让用户更愿意接受。

相关论文VRGaussianAvatar: Integrating 3D Gaussian Avatars into VR

尽管在身体动作上已经相当出色,但当前系统尚未集成面部表情和眼球追踪。研究团队表示,下一步将结合面部控制技术,让虚拟化身的表情也“活起来”。同时,他们也在探索更轻量的模型,希望未来能在VR一体机独立运行,摆脱对高性能PC的依赖。

本文链接https://news.nweon.com/138871
转载须知:转载摘编需注明来源映维网并保留本文链接
素材版权:除额外说明,文章所用图片、视频均来自文章关联个人、企业实体等提供
QQ交流群苹果Vision  |  Meta Quest  |  AR/VR开发者  |  映维粉丝读者
XR Research Wechat Group/微信群

您可能还喜欢...

资讯