中国科学院大学与北京理工大学联合开发VM-BHINet手部交互重建系统

PICO 4 Ultra

查看引用/信息源请点击:映维网Nweon

将平均每个关节位置误差(MPJPE)和平均每个顶点位置误差(MPVPE)降低了2-3%

映维网Nweon 2025年08月08日)对于逼真的3D姿态和形状重建,理解双手交互必不可少。然而,现有的方法存在遮挡、模糊和计算效率低等挑战。为了解决相关问题,中国科学院大学和北京理工大学团队提出了VM-BHINet,将状态空间模型(ssm)引入手部重建,以增强交互建模,同时提高计算效率。核心组件Vision Mamba Interaction Feature Extraction Block(VM-IFEBlock)将状态空间模型与局部和全局特征操作相结合,能够深入理解手的交互。

在InterHand2.6M数据集的实验表明,VM-BHINet将平均每个关节位置误差(MPJPE)和平均每个顶点位置误差(MPVPE)降低了2-3%,显著优于目前最先进的方法。

双手交互是人类活动的基础,如协作任务、情感表达和意图交流。理解双手交互对于增强现实/虚拟现实应用至关重要。对双手交互进行准确的建模和实时重建,不仅可以提高系统的响应能力,而且能够通过实现自然和直观的交互改善用户体验。

中国科学院大学与北京理工大学联合开发VM-BHINet手部交互重建系统

......(全文 2205 字,剩余 1863 字)


请微信扫码通过小程序阅读完整文章
或者登入网站阅读完整文章
映维网会员可直接登入网站阅读
PICO员工可联系映维网免费获取权限

本文链接https://news.nweon.com/131531
转载须知:转载摘编需注明来源映维网并保留本文链接
素材版权:除额外说明,文章所用图片、视频均来自文章关联个人、企业实体等提供
QQ交流群苹果Vision  |  Meta Quest  |  AR/VR开发者  |  映维粉丝读者
XR 招聘Job
XR Research Wechat Group/微信群

您可能还喜欢...

资讯