DeepMind:大模型又曝重大缺陷,无法自我纠正推理,除非提前得知正确答案

AIGC动态1年前 (2023)发布 新智元
13 0 0

DeepMind:大模型又曝重大缺陷,无法自我纠正推理,除非提前得知正确答案

AIGC动态欢迎阅读

原标题:DeepMind:大模型又曝重大缺陷,无法自我纠正推理,除非提前得知正确答案

关键字:研究人员,提示,自我,模型,答案

文章来源:新智元

内容字数:8318字

内容摘要:新智元报道编辑:润【新智元导读】DeepMind的研究人员发现,LLM有一个天生的缺陷——在推理过程中无法通过自我纠正获得更好的回复,除非数据集中预设了真值标签。马库斯又高兴地转发了这篇论文。大语言模型又一项重大缺陷被DeepMind曝光!LLM无法纠正自己推理中的错误。「Self-Correction」作为一种让模型修正自己回答的技术,在很多类型的任务中都能明显改进模型的输出质量。但是最近,谷歌…

原文链接:点此阅读原文:DeepMind:大模型又曝重大缺陷,无法自我纠正推理,除非提前得知正确答案

联系作者

文章来源:新智元

作者微信:AI_era

作者简介:智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...