Scaling Laws又失灵了?谷歌新研究:扩散模型不是越大越好

Scaling Laws又失灵了?谷歌新研究:扩散模型不是越大越好

AIGC动态欢迎阅读

原标题:Scaling Laws又失灵了?谷歌新研究:扩散模型不是越大越好
关键字:模型,报告,步骤,图像,任务
文章来源:大数据文摘
内容字数:5219字

内容摘要:


大数据文摘授权转载自夕小瑶科技说作者:Zicy
近年来,模型规模呈现出愈来愈大的趋势,越来越多的人相信“力大砖飞”。
OpenAI 虽然没有公布Sora的训练细节,但在Sora的技术报告中提到了:
Our largest model, Sora, is capable of generating a minute of high fidelity video. Our results suggest that scaling video generation models is a promising path towards building general purpose simulators of the physical world.
我们最大的模型 Sora 能够生成一分钟的高保真视频。我们的结果表明,扩展视频生成模型是构建物理世界通用模拟器的一条有前途的途径。
OpenAI是scaling laws的坚定拥护者。可是模型训练是否真的大力出奇迹呢?
谷歌最新的研究结论:
不是!
谷歌研究院和约翰霍普金斯大学在最新的论文中指出:对于潜在扩散模型,模型不一定是越大越好。
论文链接


原文链接:Scaling Laws又失灵了?谷歌新研究:扩散模型不是越大越好

联系作者

文章来源:大数据文摘
作者微信:BigDataDigest
作者简介:普及数据思维,传播数据文化

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...