DreamTech联合南大和牛津发布最强3D内容生成大模型——Direct3D
文章链接:https:arxiv.orgpdf2405.14832github链接:https:nju3dv.github.ioprojectsDirect3D从文本和图像生成高质量的3D资产一直是一项挑战,主要是由于缺乏能够捕捉复杂几何分布的可扩展3D表示。在这项工作中,介绍了Direct3D,这是一种可扩展到inthewild输入图像的原生3D生成模型,不需要多视角扩散模型或SDS优化。方法包括两个主要组件:Direct3DVariationalAutoEncoder(D3DVAE)和Direct3DDiffusionTransformer(D3DDiT...