AIGC动态欢迎阅读
原标题:谷歌苹果曝出LLM惊人内幕,自主识别错误却装糊涂!AI幻觉背后藏着更大秘密
关键字:错误,模型,答案,研究人员,真实性
文章来源:新智元
内容字数:0字
内容摘要:
新智元报道编辑:桃子
【新智元导读】大模型幻觉,究竟是怎么来的?谷歌、苹果等机构研究人员发现,大模型知道的远比表现的要多。它们能够在内部编码正确答案,却依旧输出了错误内容。到现在为止,我们仍旧对大模型「幻觉」如何、为何产生,知之甚少。
最近,来自Technion、谷歌和苹果的研究人员发现,LLM「真实性」的信息集中在特定的token,而且并得均匀分布。
正如论文标题所示,「LLM知道的往往要比表现出来的更多」。
论文地址:https://arxiv.org/pdf/2410.02707
不仅如此,他们还发现,内部表征可以用来预测LLM可能会犯错的错误类型。
它的优势在于,未来有助于开发出针对性的解决方案。
最后,研究团队还解释了,大模型内部编码和外部行为之间存在的差异:
它们可能在内部编码了正确答案,却持续生成错误答案。
幻觉,如何定义?事实错误、偏见,以及推理失误,这些统称为「幻觉」。
以往,大多数关于幻觉的研究,都集中在分析大模型的外部行为,并检查用户如何感知这些错误。
然而,这些方法对模型本身如何编码、处理错误提供了有限的见解。
近期另有一些研究表明,LLM内部状态其实「知道」
原文链接:谷歌苹果曝出LLM惊人内幕,自主识别错误却装糊涂!AI幻觉背后藏着更大秘密
联系作者
文章来源:新智元
作者微信:
作者简介:
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...