AIGC动态欢迎阅读
原标题:“幻觉”问题根本无解!为什么我们的大模型会“说胡话”?
关键字:模型,幻觉,函数,定义,世界
文章来源:人工智能学家
内容字数:8990字
内容摘要:
来源:CSDN
整理:王启隆
“幻觉”(Hallucination),现在已经是大语言模型领域无人不知、无人不晓的热词。我们在和 ChatGPT 等聊天机器人对话的时候,有时会遇到生成式人工智能根据提示词生造出一些事实的情况。通俗点说,就是现在的 AI 都有概率「说胡话」,聊着聊着就和你侃大山,答非所问。
张飞哭晕在厕所
最近,一篇关于幻觉问题的论文就在 Hacker News 上引起了激烈讨论,很多开发者聊着聊着就聊到了哲学问题上:
而这篇论文的标题也非常具有冲击性——《幻觉不可避免:大型语言模型的内在局限性》(Hallucination is Inevitable: An Innate Limitation of Large Language Models),作者是隶属于新加坡国立大学计算学院的 Ziwei Xu, Sanjay Jain 和 Mohan Kankanhalli。这篇论文试图证明大语言模型(LLMs)中的幻觉无法完全消除,即使采用现有的幻觉缓解方法也无法完全解决。
论文链接:https://arxiv.org/abs/2401.11817v1
如今,大模型厂商各显神
原文链接:“幻觉”问题根本无解!为什么我们的大模型会“说胡话”?
联系作者
文章来源:人工智能学家
作者微信:AItists
作者简介:致力成为权威的人工智能科技媒体和前沿科技研究机构
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...