中科院计算所:什么情况下,大模型才需要检索增强?

中科院计算所:什么情况下,大模型才需要检索增强?

AIGC动态欢迎阅读

原标题:中科院计算所:什么情况下,大模型才需要检索增强?
关键字:模型,答案,问题,边界,方法
文章来源:夕小瑶科技说
内容字数:9745字

内容摘要:


夕小瑶科技说 原创作者 | 谢年年、PythonChatGPT等大型语言模型在自然语言处理领域表现出色。但有时候会表现得过于自信,对于无法回答的事实问题,也能编出一个像样的答案来。
这类胡说乱说的答案对于医疗等安全关键的领域来说,是致命的。
为了弥补这一缺陷,研究者们提出了检索增强技术,通过引入外部知识源来减少模型的错误信息。然而,频繁的检索不仅增加开销,还可能引入不准确或误导性的信息。
因此,检索的时机就变得很重要了。如果仅在LLMs对问题感到不确定时进行检索检索,将大大提高效率。
但是新问题又来了,如何让过度自信的LLMs诚实的表达出“我不知道”呢?
中科院计算所的研究团队对此进行了深入研究,定量评估了大型语言模型对知识边界的感知能力,并发现它们确实存在过度自信的问题。团队进一步探讨了模型对问题确定性与外部检索信息依赖之间的关系,并提出了几种创新方法来增强模型对知识边界的感知,从而减少过度自信。
这些方法不仅有助于提升模型的性能,还能在减少检索调用次数的同时,实现与传统检索增强相当甚至更好的效果。
论文标题:When Do LLMs Need Retrieval Augmentat


原文链接:中科院计算所:什么情况下,大模型才需要检索增强?

联系作者

文章来源:夕小瑶科技说
作者微信:xixiaoyaoQAQ
作者简介:更快的AI前沿,更深的行业洞见。聚集25万AI一线开发者、互联网中高管和机构投资人。一线作者来自清北、国内外顶级AI实验室和大厂,兼备行业嗅觉与报道深度。

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...