LeCun引战,LLM根本不会推理!大模型「涌现」,终究离不开上下文学习

AIGC动态1年前 (2023)发布 新智元
26 0 0

LeCun引战,LLM根本不会推理!大模型「涌现」,终究离不开上下文学习

AIGC动态欢迎阅读

原标题:LeCun引战,LLM根本不会推理!大模型「涌现」,终究离不开上下文学习

关键字:模型,能力,指令,研究人员,任务

文章来源:新智元

内容字数:10929字

内容摘要:新智元报道编辑:润拉燕【新智元导读】前段时间,LeCun转发了2篇长文,集中讨论了LLM的规划推理能力和涌现能力的来源。作者认为,LLM本身不具有规划推理能力,而涌现出来的能力,根源应该都是上下文学习的结果。大语言模型到底会不会推理?涌现出来的各种能力到底来源是什么?前段时间,LeCun在自己上转发了好几篇文章,集中讨论了这个问题:「自回归LLM无法制定计划(并且无法真正推理)」。而LeCun转发第二篇论文,则讨论了LLM涌现能力。原推表示,不管大伙相不相信LLM的涌现能力,这篇文章都值得一读:「经过了超过1000次的系列实验,我们证明了大语言模型所谓的涌现能力,其实仅仅是上下文学习而已。」LLM真的能推理和规划吗?Subbarao Kambhampat的文章认为,网上对于LLM能够推理和规划的说法,本身不太站得住脚,但是学界对于这个问题,也开始进行了很严肃地研究。至少以他之前针对GP…

原文链接:点此阅读原文:LeCun引战,LLM根本不会推理!大模型「涌现」,终究离不开上下文学习

联系作者

文章来源:新智元

作者微信:AI_era

作者简介:智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人对人类社会与文明进化的影响,领航中国新智能时代。

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...