VR研究:谷歌借助纯眼部追踪预测面部表情

文章相关引用及参考:techcrunch

在眼球、眉毛、眼部皱纹等区域之间,我们其实可以发现不少的信息

映维网 2017年7月29日)有人说判断是否真笑要看眼睛。当然,这是因为我们都需要学习这种假笑。但我们眼球区域的微表情有一个额外的好处:VR研究人员利用这一点来判断面部其他区域正在做什么。

谷歌研究院刚刚发布了一个有趣的小项目,试图通过在头显内追踪眼睛来掌握用户表情。在眼球、眉毛、眼部皱纹等区域之间,我们其实可以发现不少的信息。

无论如何,这部分信息足以让深度学习系统判断出一些基本的表情和程度,而且还相当精准。系统能够分辨出“开心”和“惊喜”,但数据尚不够丰富,不足以识别出“幸灾乐祸”或“使坏”。

谷歌研究院的想法是,通过最低程度的监测工具(头显内的眼部追踪传感器),你至少能大概知道用户面部正在做什么。谷歌研究院已经发表了相关论文,当然,你也可以在即将召开的SIGGRAPH大会上听取他们的报告。

相关论文:EyeMotion: Classifying facial expressions in VR using eye-tracking cameras

本文链接https://news.nweon.com/34168
转载须知:转载摘编需注明来源映维网并保留本文链接
素材版权:除额外说明,文章所用图片、视频均来自文章关联个人、企业实体等提供
QQ交流群苹果Vision  |  Meta Quest  |  微软HoloLens  |  AR/VR开发者  |  映维粉丝读者

更多阅读推荐......

资讯