研究员提出Emo3D数据集及指标推动三维面部表情生成研究

查看引用/信息源请点击:映维网Nweon

在虚拟现实和情感人机交互等方面有着广泛的应用

映维网Nweon 2025年03月05日)现有的三维面部情绪建模受限于有限的情绪类别和不足的数据集。针对这个问题,伊朗谢里夫理工大学和卡塔尔计算研究所团队介绍了一个广泛的“文本-图像-表情数据集”“Emo3D”,涵盖了广泛的人类情感,每个数据集都与图像和3D混合形状配对。

利用大型语言模型,团队生成了各种各样的文本描述,促进了广泛的情感表达的捕获。使用这个独特的数据集,他们对基于语言的模型的微调和视觉语言模型进行了全面的评估,同时该任务引入了一种新的评价指标,以更直接地衡量所传达的情感。

在评估与人类情感相关的3D面部表情的视觉文本对齐和语义丰富度方面,新评估指标Emo3D证明了其优于均方误差(MSE)指标。团队指出,“Emo3D”在虚拟现实和情感人机交互等方面有着广泛的应用。

......(全文 1134 字,剩余 818 字)


请微信扫码通过小程序阅读完整文章
或者登入网站阅读完整文章
映维网会员可直接登入网站阅读
PICO员工可联系映维网免费获取权限

本文链接https://news.nweon.com/128162
转载须知:转载摘编需注明来源映维网并保留本文链接
素材版权:除额外说明,文章所用图片、视频均来自文章关联个人、企业实体等提供
QQ交流群苹果Vision  |  Meta Quest  |  微软HoloLens  |  AR/VR开发者  |  映维粉丝读者
资讯