腾讯+上交大团队提出音频驱动的多情感3D面部动画生成方法

查看引用/信息源请点击:映维网Nweon

音频驱动的情感3D面部动画

映维网Nweon 2025年01月09日)音频驱动的情感3D面部动画旨在生成具有同步嘴唇运动的情感表达Avatar。然而,之前的研究往往忽视了不同情绪对面部表情的影响。

针对这一不足,上海交通大学和腾讯团队提出了一种新颖的音频驱动方法EmoFace,并旨在用于创建具有生动情感动态的面部动画。

所述方法可以产生多种情绪的面部表情,并且能够产生随机而自然的眨眼和眼球运动,同时保持精确的嘴唇同步。独立的语音编码器和情绪编码器可以学习音频、情绪和相应面部控制器之间的关系,并最终映射到控制器值的序列中。

另外,团队介绍了致力于提高动画真实性的两种后处理技术,特别是在眨眼和眼球运动方面。

团队表示,所提出的方法可用于在虚拟现实环境中驱动Avatar。定量和定性实验,所述方法在驱动3D面部模型方面表现出优异的效果。

......(全文 1515 字,剩余 1192 字)


请微信扫码通过小程序阅读完整文章
或者登入网站阅读完整文章
映维网会员可直接登入网站阅读
PICO员工可联系映维网免费获取权限

本文链接https://news.nweon.com/126951
转载须知:转载摘编需注明来源映维网并保留本文链接
素材版权:除额外说明,文章所用图片、视频均来自文章关联个人、企业实体等提供
QQ交流群苹果Vision  |  Meta Quest  |  微软HoloLens  |  AR/VR开发者  |  映维粉丝读者

您可能还喜欢...

资讯