中国科学院大学与北京理工大学联合开发VM-BHINet手部交互重建系统
将平均每个关节位置误差(MPJPE)和平均每个顶点位置误差(MPVPE)降低了2-3%
(映维网Nweon 2025年08月08日)对于逼真的3D姿态和形状重建,理解双手交互必不可少。然而,现有的方法存在遮挡、模糊和计算效率低等挑战。为了解决相关问题,中国科学院大学和北京理工大学团队提出了VM-BHINet,将状态空间模型(ssm)引入手部重建,以增强交互建模,同时提高计算效率。核心组件Vision Mamba Interaction Feature Extraction Block(VM-IFEBlock)将状态空间模型与局部和全局特征操作相结合,能够深入理解手的交互。
在InterHand2.6M数据集的实验表明,VM-BHINet将平均每个关节位置误差(MPJPE)和平均每个顶点位置误差(MPVPE)降低了2-3%,显著优于目前最先进的方法。
双手交互是人类活动的基础,如协作任务、情感表达和意图交流。理解双手交互对于增强现实/虚拟现实应用至关重要。对双手交互进行准确的建模和实时重建,不仅可以提高系统的响应能力,而且能够通过实现自然和直观的交互改善用户体验。
......(全文 2205 字,剩余 1863 字)
请微信扫码通过小程序阅读完整文章或者登入网站阅读完整文章
映维网会员可直接登入网站阅读
PICO员工可联系映维网免费获取权限