SpAItial发布Echo-2模型,实现实时3D场景生成
实时3D场景生成
(映维网Nweon 2026年04月30日)SpAItial日前发布了最新模型Echo-2,可根据文本或图像输入生成沉浸式3D环境,并支持任意设备实时探索。

与按顺序预测帧的视频模型不同,Echo-2能从单张图像或文本提示生成空间持久的3D场景。模型并非生成视频,而是创建一种具有3D一致性的场景表征,用户可自由交互与导航。据公司介绍,网页演示采用3DGS技术进行渲染,具备对GPU友好的性能,即便在普通硬件都能直接在浏览器中实现交互式查看。
Echo-2旨在连接物理与数字环境,应用领域涵盖建筑可视化、数字孪生及沉浸式3D内容创作体验。模型可通过单张照片创建真实空间的数字克隆,省去了昂贵的3D扫描硬件。
模型同时具备场景理解与编辑能力。Echo-2生成语义分割掩码以识别场景中的单个对象,从而在保持整体环境空间一致性的前提下实现局部对象操作。用户可通过文本提示移除、添加或替换对象。模型同时能重新设计整个场景的风格,以探索不同的设计方向和美学效果。
SpAItial宣称,在世界生成基准测试WorldScore的三项指标(内容对齐、主观质量、综合世界得分)方面,Echo-2的表现均优于World Labs的Marble-1.1模型。
这家公司表示,Echo-2模型的未来版本将融入动力学和基于物理的推理,以支持交互式模拟。
更多信息请访问公司官网。

