蔚山科学技术院研发单摄像头双手交互3D重建技术

查看引用/信息源请点击:techxplore

即便物体是陌生的或部分模糊,系统都能实时重建复杂的手-物体动态

映维网Nweon 2025年06月17日)蔚山科学技术院的研究人员日前介绍了一种双手交互3DGS。这种创新的人工智能模型可以用一个RGB视频输入来将手和对象之间的复杂交互可视化为3D,从而进一步增强实时交互能力。

即便物体是陌生的或部分模糊,系统都能实时重建复杂的手-物体动态。

这一领域的传统方法仅限于一次识别一只手或仅对预扫描对象做出响应,限制了它们在现实AR和VR环境中的适用性。

相比之下,团队的解决方案可以可靠地预测完整的物体和手形状,即便物体是陌生的或部分模糊,系统都能实时重建复杂的手-物体动态,不需要深度传感器或多个摄像头,而是仅仅依赖单个RGB摄像头。

这个AI模型的核心是基于3DGS,一种将物体形状表示为具有光滑高斯分布的点云的技术。与产生清晰边界的点云方法不同,3DGS能够自然重建接触面和复杂的相互作用。

另外,模型通过将多个手实例对齐到典型高斯结构来进一步解决遮挡问题,并采用预训练的扩散模型进行SDS,使其能够准确地重建看不见的表面,包括物体的背面。

利用ARCTIC和HO3Dv3等国际数据集进行的大量实验表明,团队提出的BIGS在准确捕获手部姿势、物体形状、接触交互和渲染质量方面优于现有技术,并在虚拟现实和增强现实等领域的应用具有重要的前景。

相关论文BIGS: Bimanual Category-agnostic Interaction Reconstruction from Monocular Videos via 3D Gaussian Splatting

研究人员指出:“这一进展有望在虚拟现实、增强现实和远程手术训练等多个领域实现实时交互重建。”

本文链接https://news.nweon.com/130380
转载须知:转载摘编需注明来源映维网并保留本文链接
素材版权:除额外说明,文章所用图片、视频均来自文章关联个人、企业实体等提供
QQ交流群苹果Vision  |  Meta Quest  |  微软HoloLens  |  AR/VR开发者  |  映维粉丝读者
资讯