Meta研究从视觉、触觉探讨数据驱动的主动触摸三维对象重建

查看引用/信息源请点击:映维网

探讨了数据驱动的主动触摸三维对象重建问题

映维网 2021年12月13日)三维形状理解是一个活跃的研究领域,其目标是从有限的感官数据中建立对象和环境的三维模型。行业一般是通过利用局部观测来解决,如单视图RGB图像、多视图RGB图像、深度映射或触觉读数。大多数研究主要集中在从一组固定的部分观测值建立形状重建模型。

但在主动传感场景中,这一约束被放松,因为在主动传感场景中可以获取额外的观测以提高三维重建的质量。例如在主动视觉中,目标可以是迭代地从一个对象中选择摄像头视角,从而最大程度地提高重建质量。直到最近,业界才开始利用大规模数据集学习泛化不可见对象的探索策略。

业界已从心理学角度就人类对视觉对象和无视觉对象的触觉探索进行了经典分析,并发现用于对象理解的触觉探索策略不仅无处不在,而且非常适合特定任务。尽管如此,基于深度学习的数据驱动方法并用于形状理解的主动触摸实际并不存在。

不过,通过使用高分辨率触觉传感器、静态3D形状数据的大型数据集和深度学习,业界能够成功地以数量级更少的触摸信号对对象形状进行准确估计。请注意,之前没有利用大型数据集学习触摸探索的研究。另外,之前也没有任何研究在视觉输入(如RGB摄像头)存在的情况下探索主动触摸。

......(全文 3001 字,剩余 2517 字)


请微信扫码通过小程序阅读完整文章
或者登入网站阅读完整文章
映维网会员可直接登入网站阅读
PICO员工可联系映维网免费获取权限

本文链接https://news.nweon.com/92498
转载须知:转载摘编需注明来源映维网并保留本文链接
素材版权:除额外说明,文章所用图片、视频均来自文章关联个人、企业实体等提供
QQ交流群苹果Vision  |  Meta Quest  |  微软HoloLens  |  AR/VR开发者  |  映维粉丝读者
资讯