雨果·巴拉:行业北极星Vision Pro过度设计不适合产品市场

根据真实视频训练,英伟达用AI生成交互式3D虚拟场景,自动构建虚拟世界

文章相关引用及参考:映维网

将在蒙特利尔举行的NeurIPS 2018大会上演示实况demo

映维网 2018年12月04日英伟达今天推出了一项突破性的人工智能研究,开发者首次可以通过一个根据真实世界视频训练的模型来渲染完全合成的交互式3D环境。

研究人员利用神经网络来实时渲染一个合成的3D环境。就目前而言,虚拟世界中的每一个对象都需要单独建模,而这个过程成本高昂且十分耗时。与之相比,英伟达采用了一个能够根据真实视频自动进行学习的模型来渲染诸如建筑物,数目和车辆等对象。

这项技术为游戏,汽车,架构,机器人或虚拟现实快速创建一个虚拟世界提供了潜力。例如,你可以根据真实世界位置生成交互式场景,或者在消费者面向渲染流行歌手的实况演唱会。

负责这一项目的英伟达Applied Deep Learning Research副总裁Bryan Catanzaro表示:“在25年来,英伟达一直在发明生成交互式图形的新方法,而这是我们第一次通过神经网络实现这一目标。神经网络,特别是生成模型,将改变图形的创建方式。这可以帮助开发者以更低的成本来创建新场景。”

研究结果是一款简单的驾驶游戏,其中用户可以在城市场景中导航。所有内容都以交互方式呈现,并使用了能够将由传统图形引擎生成的3D世界草图转换为视频的神经网络。据悉,英伟达将在蒙特利尔举行的NeurIPS 2018大会上演示实况demo。

这个神经网络能够模拟世界的外观,包括照明,材质及其动态。由于场景是完全合成生成,因此看来这可以轻松进行编辑,自由删除,修改或添加对象。

研究人员指出:“建模和重建视觉世界动态的能力对于建立智能代理至关重要。除了纯粹的科学兴趣,学习如何合成连续视觉体验在计算机视觉,机器人和计算机图形学中存在广泛的应用。”

本文链接https://news.nweon.com/53630
转载须知:转载摘编需注明来源映维网并保留本文链接
素材版权:除额外说明,文章所用图片、视频均来自文章关联个人、企业实体等提供
QQ交流群苹果Vision  |  Meta Quest  |  微软HoloLens  |  AR/VR开发者  |  映维粉丝读者

您可能还喜欢...

资讯