大模型一定就比小模型好?谷歌的这项研究说不一定

大模型一定就比小模型好?谷歌的这项研究说不一定

AIGC动态欢迎阅读

原标题:大模型一定就比小模型好?谷歌的这项研究说不一定
关键字:模型,效率,性能,大小,规模
文章来源:机器之心
内容字数:9139字

内容摘要:


机器之心报道
编辑:Panda在这个大模型不断创造新成就的时代,我们通常对机器学习模型有一个直观认知:越大越好。但事实果真如此吗?
近日,Google Research 一个团队基于隐扩散模型(LDM)进行了大量实验研究,得出了一个结论:更大并不总是更好(Bigger is not Always Better),尤其是在预算有限时。论文标题:Bigger is not Always Better: Scaling Properties of Latent Diffusion Models
论文地址:https://arxiv.org/pdf/2404.01367.pdf
近段时间,隐扩散模型和广义上的扩散模型取得的成就不可谓不耀眼。这些模型在处理了大规模高质量数据之后,可以非常出色地完成多种不同任务,包括图像合成与编辑、视频创建、音频生成和 3D 合成。
尽管这些模型可以解决多种多样的问题,但要想在真实世界应用中大规模使用它们,还需要克服一大障碍:采样效率低。
这一难题的本质在于,为了生成高质量输出,LDM 需要依赖多步采样,而我们知道:采样总成本 = 采样步骤数 × 每一步的成本。


原文链接:大模型一定就比小模型好?谷歌的这项研究说不一定

联系作者

文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...