Meta预告AssetGen 2.0 AI模型:文本直接生成高保真3D资产
AssetGen 1.0首先根据提示生成预期asset的多个2D图像视图,然后将图像馈送到另一个生成asset的神经网络。AssetGen 2.0则是一个单阶段3D扩散模型,直接从文本提示生成资源,并直接在大型3D asset语料库进行训练。
(映维网Nweon 2025年05月12日)Meta日前预告了全新的3D基础模型AssetGen 2.0,而它将允许你通过文本和图像提示创建高质量的3D asset。AssetGen 2.0由两个由Meta开发的模型组成:一个用于生成3D网格,另一个用于生成纹理。它利用单阶段3D扩散模型提供具有显著改进细节和保真度的3D网格,确保3D asset具有非常精细的细节的几何一致性。
简单来说,AssetGen 2.0模型可以生成更高质量的3D asset,甚至是整个世界。
与AssetGen 1.0不同,AssetGen 2.0使用3D扩散进行几何估计,并在大型3D asset语料库进行训练。对于纹理生成,它引入了全新的方法来改进视图一致性、纹理绘制和增加纹理分辨率。
具体来说,AssetGen 1.0首先根据提示生成预期asset的多个2D图像视图,然后将图像馈送到另一个生成asset的神经网络。AssetGen 2.0则是一个单阶段3D扩散模型,直接从文本提示生成资源,并直接在大型3D asset语料库进行训练。
Meta目前正在利用AssetGen 2.0创建3D世界,并计划在今年下半年向Horizon创作者开放(Horizon Desktop Editor)。
这家公司表示,希望AssetGen 2.0能够帮助用户轻松创建3D体验,并为美术,设计师和开发者开辟新的创意可能性。
在接下来的几个月里,AssetGen将作为一个基础构建模块,令整个3D场景的自动回归生成成为可能,为用户在创建过程中实现一步步功能变化。这个新模型将能够通过使用简单的文本或图像提示顺序生成单个对象、结构或元素来生成复杂的3D环境。
团队表示:“Meta致力于突破生成式人工智能领域的极限。AssetGen 2.0旨在提供令人惊叹的视觉质量,超越现有的解决方案,并为行业树立新的标准。随着我们继续探索3D生成人工智能的巨大潜力,我们非常期待看到创作者将如何利用AssetGen 2.0来将他们最雄心勃勃的想法变为现实,并重新定义3D内容创作。”
AssetGen 2.0将于今年下半年登陆Horizon Desktop Editor,更多信息可访问这个页面。