单个A100生成3D图像只需30秒,这是Adobe让文本、图像都动起来的新方法

AIGC动态10个月前发布 机器之心
26 0 0

单个A100生成3D图像只需30秒,这是Adobe让文本、图像都动起来的新方法

AIGC动态欢迎阅读

原标题:单个A100生成3D图像只需30秒,这是Adobe让文本、图像都动起来的新方法

关键字:模型,图像,研究者,视图,方法

文章来源:机器之心

内容字数:8448字

内容摘要:机器之心报道编辑:杜伟、佳琪3D 生成是 AI 视觉领域的研究热点之一。本文中,来自 Adobe 研究院和斯坦福大学等机构的研究者利用基于 transformer 的 3D 大型重建模型来对多视图扩散进行去噪,并提出了一种新颖的 3D 生成方法 DMV3D,实现了新的 SOTA 结果。2D 扩散模型极大地简化了图像内容的创作流程,2D 设计行业也因此发生了变革。近来,扩散模型已扩展到 3D 创作领域,减少了应用程序(如 VR、AR、机器人技术和游戏等)中的人工成本。有许多研究已经对使用预训练的 2D 扩散模型,生成具有评分蒸馏采样(SDS)损失的 NeRFs 方法进行了探索。然而,基于 SDS 的方法通常需要花费数小时来优化资源,并且经常引发图形中的几何问题,比如多面 Janus 问题。另一方面,研究者对无需花费大量时间优化每个资源,也能够实现多样化生成的 3D 扩散模型也进行了多种尝试。…

原文链接:点此阅读原文:单个A100生成3D图像只需30秒,这是Adobe让文本、图像都动起来的新方法

联系作者

文章来源:机器之心

作者微信:almosthuman2014

作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...