免训练加速DiT!Meta提出自适应缓存新方法,视频生成快2.6倍

AIGC动态2个月前发布 量子位
4 0 0

免训练加速DiT!Meta提出自适应缓存新方法,视频生成快2.6倍

AIGC动态欢迎阅读

原标题:免训练加速DiT!Meta提出自适应缓存新方法,视频生成快2.6倍
关键字:视频,缓存,步骤,质量,团队
文章来源:量子位
内容字数:0字

内容摘要:


一水 发自 凹非寺量子位 | 公众号 QbitAI现在,视频生成模型无需训练即可加速了?!
Meta提出了一种新方法AdaCache,能够加速DiT模型,而且是无需额外训练的那种(即插即用)。
话不多说,先来感受一波加速feel(最右):
可以看到,与其他方法相比,AdaCache生成的视频质量几乎无异,而生成速度却提升了2.61倍。
据了解,AdaCache灵感源于“并非所有视频都同等重要”。
啥意思??原来团队发现:
有些视频在达到合理质量时所需的去噪步骤比其他视频少
因此,团队在加速DiT时主打一个“按需分配,动态调整”,分别提出基于内容的缓存调度和正则化(MoReg)来控制缓存及计算分配。
目前这项技术已在GitHub开源,单个A100(80G)GPU 上就能运行,网友们直呼:
看起来速度提升了2~4倍,Meta让开源AI再次伟大!
“并非所有视频都同等重要”下面我们具体介绍下这项研究。
先说结论,以Open-Sora是否加持AdaCache为例,使用AdaCache能将视频生成速度提升4.7倍——
质量几乎相同的情况下,前后速度从419.60s降低到89.53s。
具体如


原文链接:免训练加速DiT!Meta提出自适应缓存新方法,视频生成快2.6倍

联系作者

文章来源:量子位
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...