Scaling Law撞南墙,MIT发现另一条路:测试时训练,推理能力最高升至5.8倍

Scaling Law撞南墙,MIT发现另一条路:测试时训练,推理能力最高升至5.8倍

AIGC动态欢迎阅读

原标题:Scaling Law撞南墙,MIT发现另一条路:测试时训练,推理能力最高升至5.8倍
关键字:测试,模型,任务,样本,数据
文章来源:夕小瑶科技说
内容字数:0字

内容摘要:


夕小瑶科技说 分享作者 | 量子位o1不是通向大模型推理的唯一路径!
MIT的新研究发现,在测试时对大模型进行训练,可以让推理水平大幅提升。
在挑战超难的ARC任务时,准确率最高可提升至原来的5.83倍。
这样的表现不仅优于GPT-4和Claude,如果与其他推理方法相结合,还能超越人类的平均水准。
OpenAI o1团队成员Noam Brown表示,o1的大规模计算可能不是最好的方法,很高兴看到有学者在提高推理能力上探索新的方法。
在测试中训练模型不同于传统的先训练后测试模式,测试时训练(Test-Time Training,TTT)在部署阶段面对新的测试样本时,不直接用训练好的模型去推理。
在推理之前,测试样本自身携带的信息,会通过快速的训练过程被用于调整模型参数。
总体来说,TTT过程中一共有三个关键阶段——训练数据生成、模型适应范式设计以及推理阶段的策略。
数据生成的核心是将测试任务中蕴含的输入输出对关系,通过数据增强的方式最大限度地利用,可具体分为两个步骤。
首先是基于leave-one-out构造新的任务。
对于包含K个输入输出对的测试任务,依次将每个样本留出作为测试样本,


原文链接:Scaling Law撞南墙,MIT发现另一条路:测试时训练,推理能力最高升至5.8倍

联系作者

文章来源:夕小瑶科技说
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...