AIGC动态欢迎阅读
原标题:Ilya承认Scaling Law到头了,Meta和谷歌寻找替代o1的方法
关键字:模型,规模,测试,数据,团队
文章来源:夕小瑶科技说
内容字数:0字
内容摘要:
夕小瑶科技说 原创作者 | 小鹿近期,全球科技界的目光都集中在OpenAI即将推出的下一代模型上,究竟会是o2还是GPT-5?
o2代表了全新的训练范式,而GPT-5则代表了继续Scaling Law的路线。
实际上,这个问题已经在11月份的时候,有Reddit网友向Altman提出过:
Altman最新谈到OpenAI的动态时,与OpenAI寻求新路径的努力是相呼应的–下一代技术不会是GPT的简单迭代。
为什么不再是GPT-5了?首先,GPT系列模型,即生成式预训练Transformer模型,其核心特点是依靠数据驱动的Scaling Law来推动性能的提升。
论文《Scaling Laws for Neural Language Models》提出语言建模性能随着模型大小、数据集大小和用于训练的计算量的增加而平稳提升。为了获得最佳性能,这三个因素必须同时扩大。当不受其他两个因素的限制时,经验性能与每个单独因素之间具有幂律关系。然而,随着技术的不断进步,这种依赖于数据量和模型规模增长的模式开始显现出其局限性,优化和改进的速度逐渐放缓。
OpenAI的资深前合伙人,同时也是早期推动暴力
原文链接:Ilya承认Scaling Law到头了,Meta和谷歌寻找替代o1的方法
联系作者
文章来源:夕小瑶科技说
作者微信:
作者简介:
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...