但最终OpenAI验证了它!
原标题:遗憾不?原来百度2017年就研究过Scaling Law,连Anthropic CEO灵感都来自百度
文章来源:机器之心
内容字数:6466字
Scaling Law的起源与发展
根据机器之心的报道,百度早在2017年就进行了关于Scaling Law的研究,验证了深度学习模型的泛化误差与模型大小之间的幂律关系。然而,此时他们使用的是LSTM模型,而非后来的Transformer,并未将这一发现命名为“Scaling Law”。在追求AGI的过程中,Scaling Law成为了一个重要的研究方向,这一理论提示学术界在模型规模与计算能力的扩展上可能遇到瓶颈。
Scaling Law的广泛认知
Scaling Law的概念通常归功于OpenAI在2020年发布的一篇论文《Scaling Laws for Neural Language Models》。该论文详细阐述了模型性能如何随参数量、数据量和计算资源的增加而呈指数提升。尽管OpenAI在大模型领域取得了显著的进展,但关于这一理论的最早发现和验证过程却鲜有深入探讨。
Dario Amodei的贡献
Anthropic的CEO Dario Amodei在一次播客中提到,他在2014年至2015年期间在百度工作的经历对他理解Scaling Law有重要影响。在此期间,他观察到随着计算资源和数据量的增加,模型的表现显著提升。虽然当时他并未深入研究,但这一直觉为后来的工作奠定了基础。
百度的研究成果
百度在2017年发布的论文《DEEP LEARNING SCALING IS PREDICTABLE,EMPIRICALLY》展现了在多种应用领域中,深度学习的泛化误差与训练集规模之间的幂律关系。研究者们强调,通过增加训练数据和计算资源,可以有效提高模型的准确性,提供了可预测的学习曲线和模型大小关系,为深度学习的实践应用提供了指导。
总结与反思
尽管百度在Scaling Law领域的早期研究没有得到及时的转化应用,但这一理论的提出为深度学习的发展提供了重要的视角。随着技术的进步,Scaling Law的研究仍将继续推动AI领域的创新与发展。
联系作者
文章来源:机器之心
作者微信:
作者简介:专业的人工智能媒体和产业服务平台