AIGC动态欢迎阅读
原标题:To Believe or Not to Believe?DeepMind新研究一眼看穿LLM幻觉
关键字:不确定性,方法,认知,模型,概率
文章来源:新智元
内容字数:0字
内容摘要:
新智元报道编辑:庸庸 乔杨
【新智元导读】DeepMind发表了一篇名为「To Believe or Not to Believe Your LLM」的新论文,探讨了LLM的不确定性量化问题,通过「迭代提示」成功将LLM的认知不确定性和偶然不确定性解耦。研究还将新推导出的幻觉检测算法应用于Gemini,结果表明,与基线方法相比,该方法能有效检测幻觉。大语言模型产生幻觉、胡说八道的问题被诟病,已经不是一天两天了。
前有ChatGPT编造法律案件,后有谷歌搜索建议披萨放胶水。
就连号称模型更安全、幻觉更少的Claude系列,在Reddit上也能看到不少吐槽。
LLM输出虚假信息的问题,似乎并不能在短时间内彻底解决。
这就给很多场景下的应用带来了巨大的障碍,尤其是法律、医疗、学术这样比较严谨的知识领域。如果答案有错,还不如不用。
那么能不能有一种方法,至少为LLM的输出划定一个置信区间呢?
6月5日,DeepMind发表了一篇名为「To Believe or Not to Believe Your LLM」,就开始着手解决这个问题。
如果无法强迫LLM坚持输出真实信息,知道它什么时候在胡说
原文链接:To Believe or Not to Believe?DeepMind新研究一眼看穿LLM幻觉
联系作者
文章来源:新智元
作者微信:AI_era
作者简介:智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...