中国团队提出OOD-HOI框架:文本指令驱动全身动作合成

查看引用/信息源请点击:映维网Nweon

生成更逼真、物理上更合理的3D交互姿态

映维网Nweon 2025年05月12日)从文本描述生成逼真的三维人-物交互(HOI)是一个活跃的研究课题,在虚拟和增强现实等领域具有潜在的应用前景。然而,由于缺乏大规模交互数据和难以确保物理合理性,特别是在域外(OOD)场景中,创建高质量的3D HOD依然具有挑战性。

目前的方法倾向于关注身体或手,这限制了它们产生逼真交互的能力。在一项研究中,来自中国科学院,中国科技学院大学,山东大学和北京科技大学等机构的团队提出了OOD-HOI。

这是一个文本驱动的框架,用于生成全身人-对象交互,而它可以很好地泛化到新的对象和动作。所述方法集成了一个dual-branch反扩散模型来合成初始交互姿态,一个接触引导的交互精细化器来提高基于预测接触面积的物理精度,以及一个包括语义调整和几何变形在内的动态适应机制来提高鲁棒性。

实验结果表明,与现有方法相比,OOD- HOI可以在OOD场景中生成更逼真、物理上更合理的3D交互姿态。

......(全文 1515 字,剩余 1151 字)


请微信扫码通过小程序阅读完整文章
或者登入网站阅读完整文章
映维网会员可直接登入网站阅读
PICO员工可联系映维网免费获取权限

本文链接https://news.nweon.com/129669
转载须知:转载摘编需注明来源映维网并保留本文链接
素材版权:除额外说明,文章所用图片、视频均来自文章关联个人、企业实体等提供
QQ交流群苹果Vision  |  Meta Quest  |  微软HoloLens  |  AR/VR开发者  |  映维粉丝读者
资讯