为逼真AR/VR手部渲染,Meta+南洋理工大学提出URHand
把图片真实感的双手带到VR
(映维网Nweon 2024年04月02日)Meta多年来一直在研究Codec Avatars,目标是实现与现实别无二致的虚拟化身。实现这个目标需要复刻人体的方方面面,包括双手。对于后者,这涉及构建逼真的可重照明手部。
构建逼真的可重照明手部模型主要有两种主要方法。一种是基于物理的渲染模型,它通过离线路径跟踪提供对各种照明的泛化,但通常缺乏实时的真实感,并且难以准确估计材质参数。另一种是神经重照明,它通过推断出的亮度直接实现实时真实感,但需要昂贵的数据增强,以泛化到自然照明。在这两种方法中,跨身份泛化都是一个挑战。
针对这个问题,Meta的Codec Avatars Lab和新加坡南洋理工大学提出了名为Universal Relightable Hands(URHand)的解决方案。大量的实验表明,所述方法在质量和泛化方面都优于现有的方法。
我们的手一整天都在做各种各样的事情,而且它们始终在我们的视野范围内。我们的眼睛可以经常看到我们的双手,这使得它们成为我们身体中最常被看到的部位之一,在自我具现中起着核心作用。
......(全文 1449 字,剩余 1066 字)
请微信扫码通过小程序阅读完整文章或者登入网站阅读完整文章
映维网会员可直接登入网站阅读
PICO员工可联系映维网免费获取权限