AIGC动态欢迎阅读
原标题:苹果一篇论文得罪大模型圈?Transformer不会推理,只是高级模式匹配器!所有LLM都判
关键字:模型,乘法,问题,研究者,多少钱
文章来源:新智元
内容字数:0字
内容摘要:
新智元报道编辑:peter东 Aeneas
【新智元导读】苹果研究者发现:无论是OpenAI GPT-4o和o1,还是Llama、Phi、Gemma和Mistral等开源模型,都未被发现任何形式推理的证据,而更像是复杂的模式匹配器。无独有偶,一项多位数乘法的研究也被抛出来,越来越多的证据证实:LLM不会推理!LLM真的会推理吗?
最近,苹果研究员发文质疑道:LLM根本没有不会推理,所谓的推理能力只是复杂的模式匹配罢了。
论文地址:https://arxiv.org/abs/2410.05229
这项研究也在AI社区引起了广泛讨论。
谷歌DeepMind科学家Denny Zhou表示,自己ICML 2023的一片论文中,也发现了类似现象。
Meta AI研究者田渊栋表示,梯度下降可能无法学习到这样的权重。
巧的是,AI2等机构在23年的一篇研究也被翻出,证实模型根本没有学会数学推理,只是在「照背」答案而已。
网友们搜罗了越来越多的学术证据,一致证明:LLM可能根本不会推理!
图灵三巨头之一的LeCun,也在最近的万字演讲表示,Meta现在已经完全放弃纯语言模型,因为仅靠文本训练,它永远
原文链接:苹果一篇论文得罪大模型圈?Transformer不会推理,只是高级模式匹配器!所有LLM都判
联系作者
文章来源:新智元
作者微信:
作者简介:
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...