大模型是否有推理能力?DeepMind数月前的论文让AI社区吵起来了

大模型是否有推理能力?DeepMind数月前的论文让AI社区吵起来了

AIGC动态欢迎阅读

原标题:大模型是否有推理能力?DeepMind数月前的论文让AI社区吵起来了
关键字:解读,模型,报告,国际象棋,动作
文章来源:机器之心
内容字数:0字

内容摘要:


机器之心报道
编辑:张倩、陈陈最近一段时间,随着 OpenAI o1 模型的推出,关于大型语言模型是否拥有推理能力的讨论又多了起来。比如苹果在前段时间的一篇论文中指出,只要给模型一些干扰,最聪明的模型也会犯最简单的错误(参见《给小学数学题加句「废话」,OpenAI o1 就翻车了,苹果新论文质疑 AI 推理能力》)。这种现象被归结为「当前的 LLM 无法进行真正的逻辑推理;相反,它们试图复制在训练数据中观察到的推理步骤」。然而,事实真的是这样吗?谷歌 DeepMind 的一篇论文似乎得出了相反的结论。最近,DeepMind 今年 2 月份的一篇论文在社交媒体上掀起了一些波澜。关于该论文的早期报道。
这篇论文题为「Grandmaster-Level Chess Without Search」。文中介绍说,DeepMind 的研究者训练了一个参数量为 2.7 亿的 Transformer 模型,这个模型无需依赖复杂的搜索算法或启发式算法就能达到「特级大师( Grandmaster-Level )」的国际象棋水平,优于 AlphaZero 的策略和价值网络(不含 MCTS)以及 GPT-3.


原文链接:大模型是否有推理能力?DeepMind数月前的论文让AI社区吵起来了

联系作者

文章来源:机器之心
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...