Stability AI开源上新:3D生成引入视频扩散模型,质量一致性up,4090可玩

AIGC动态9个月前发布 量子位
21 0 0

Stability AI开源上新:3D生成引入视频扩散模型,质量一致性up,4090可玩

AIGC动态欢迎阅读

原标题:Stability AI开源上新:3D生成引入视频扩散模型,质量一致性up,4090可玩
关键字:腾讯,模型,视频,图像,相机
文章来源:量子位
内容字数:3809字

内容摘要:


鱼羊 发自 凹非寺量子位 | 公众号 QbitAIStable Diffusion背后公司Stability AI又上新了。
这次带来的是图生3D方面的新进展:
基于Stable Video Diffusion的Stable Video 3D(SV3D),只用一张图片就能生成高质量3D网格。
Stable Video Diffusion(SVD)是Stability AI此前推出的高分辨率视频生成模型。也就是说,此番登场的SV3D首次将视频扩散模型应用到了3D生成领域。
官方表示,基于此,SV3D大大提高了3D生成的质量和视图一致性。
模型权重依然开源,不过仅可用于非商业用途,想要商用的话还得买个Stability AI会员~
话不多说,还是来扒一扒论文细节。
将视频扩散模型用于3D生成引入潜在视频扩散模型,SV3D的核心目的是利用视频模型的时间一致性来提高3D生成的一致性。
并且视频数据本身也比3D数据更容易获得。
Stability AI这次提供两个版本的SV3D:
SV3D_u:基于单张图像生成轨道视频。
SV3D_p:扩展了SV3D_u的功能,可以根据指定的相机路径创建3D模型


原文链接:Stability AI开源上新:3D生成引入视频扩散模型,质量一致性up,4090可玩

联系作者

文章来源:量子位
作者微信:QbitAI
作者简介:追踪人工智能新趋势,关注科技行业新突破

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...