英伟达发布Lyra 2.0:一张图生成可持久探索的规模化3D世界
一张图生成可持久探索的规模化3D世界
(映维网Nweon 2026年04月17日)英伟达团队日前发布了大规模3D世界生成与探索框架Lyra 2.0。这项技术可将单张静态图像转化为几何一致、支持往返漫步的三维环境,有效解决了长视频生成中普遍存在的“空间遗忘”与“时间漂移”难题。

长期以来,利用AI生成大规模、复杂的三维环境面临巨大挑战。主流视频生成模型在处理长距离摄像头轨迹时,往往会出现记忆衰退:当视角离开某一区域再返回时,模型已“忘记”原本的结构,导致物体移位、模糊或几何崩塌,难以满足下游仿真任务对场景可靠性的严格要求。
针对这一瓶颈,Lyra 2.0引入了两项核心技术突破:
逐帧3D几何记忆与路由机制:系统在生成过程中持续维护每帧的显式3D几何信息。当视角移动时,模型不再凭空想象,而是通过检索空间记忆中相关的历史帧并建立密集3D对应关系,以此保持场景外观的长期一致。
自增强漂移修正训练:模型并非仅学习生成完美画面,而是通过“自增强历史数据”,即故意向训练数据中注入自身累积的劣化输出,从而教会模型主动修正时间维度上的误差漂移,而非被动传播错误。
在实际应用中,用户只需输入一张起始图像,Lyra 2.0即可根据预设的摄像头运动轨迹,逐段生成高保真的漫游视频,并通过前馈重建技术将其实时转换为3D高斯飞溅或Mesh网格。生成的场景不仅支持通过交互式GUI自由探索,更可直接导出至物理引擎中运行。
目前,Lyra 2.0的项目主页、论文详细内容以及开源代码已在GitHub和Hugging Face平台全面上线,供全球开发者和研究人员使用。这一成果标志着生成式AI在构建无限、持久虚拟世界方面迈出了关键一步。
更多信息请访问相关项目页面。

