Meta研究员开发三种全新视听理解模型,提升AR/VR沉浸式视听体验
开发三种全新的视听理解模型
(映维网Nweon 2022年06月27日)日前,Meta Reality Labs的人工智能研究人员和音频专家,以及德克萨斯大学奥斯汀分校的研究人员为开发者带来三种全新的视听理解模型:Visual-Acoustic Matching,Visually-Informed Dereverberation,以及VisualVoice。所述模型专注于视频中的人类声音,并旨在帮助行业以更快的速度实现真正的沉浸式现实。
团队表示:“我们非常高兴与开源社区分享这项研究。我们相信,能够理解我们周遭世界的人工智能可以帮助释放令人兴奋的新可能性,并允许人们在混合现实和虚拟现实的体验和交互方式受益。”
无论是参加元宇宙派对,还是在客厅通过XR设备浏览家庭电影,声学都会影响相关时刻的体验。Meta表示,他们相信AI将是提供真实声学质量的核心。
这三种模型都与团队的视听感知型AI研究密切相关。他们设想的未来是:你可以穿戴AR眼镜,并重新体验画面和声音都如同你站在从有利位置一样的全息记忆。或者说,当你在虚拟世界畅玩游戏时,你不仅可以沉浸在图形之中,而且能够沉浸在声音之中。
......(全文 1060 字,剩余 681 字)
请微信扫码通过小程序阅读完整文章或者登入网站阅读完整文章
映维网会员可直接登入网站阅读
PICO员工可联系映维网免费获取权限