再谈LLM逻辑推理的三大谬误

再谈LLM逻辑推理的三大谬误

AIGC动态欢迎阅读

原标题:再谈LLM逻辑推理的三大谬误
关键字:模型,语言,随机性,人工智能,能力
文章来源:人工智能学家
内容字数:0字

内容摘要:


在此前的文章《LLM逻辑推理的枷锁与破局策略》,作者Alejandro Piad Morffis论述了为什么大语言模型不具备推理(reasoning)能力,并在X上引发强烈争论(https://x.com/alepiad/status/1837154075093225594)。针对这一主题,他再次写了一篇文章来驳斥关于LLM推理的三大误解。
他认为,LLM在许多情况下所做的事情只是类似于推理,但并不完全是正确、可靠的推理算法,这比根本没有推理算法更糟糕,因为它会让你错误地认为它有效,并且你可能无法判断它何时无效,而再多的渐进式创新(技巧)也无法解决这个问题。如果没有范式转变,将真正的推理纳入语言模型,这些错误不可避免。
(Alejandro是古巴哈瓦那大学计算机科学教授,也是专注于数据科学和机器学习应用的公司SYALIA, S.R.L的CTO。本文由OneFlow编译发布,转载请联系授权。原文:https://blog.apiad.net/p/no-llms-still-cannot-reason-part/comments)作者 |Alejandro Piad Morffis
One


原文链接:再谈LLM逻辑推理的三大谬误

联系作者

文章来源:人工智能学家
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...