AIGC动态欢迎阅读
原标题:LLM等价于众包,只是在输出「网络」!哈佛大学最新报告深挖大模型幻觉!
关键字:模型,报告,主题,问题,
文章来源:夕小瑶科技说
内容字数:0字
内容摘要:
夕小瑶科技说 分享来源 | 新智元自ChatGPT发布以来,用户的搜索方式、人机交互都发生了极大改变,诸如问题回答、文本总结和交流对话等各种简单应用场景下的体验都有了很大提升,有时甚至超过了人类的表现。
大模型之所以能生成全面且连贯的文本,其能力主要来源于Transformer模型架构和海量预训练、微调数据集。
不过,大模型还存在一个顽疾「幻觉」,会生成一些看似真实但非事实、无意义或与给定提示不一致的回应,可能会导致错误信息的传播,在关键决策应用中造成有害后果,甚至导致用户对AI系统的不信任。
之前就发生过相关案例,《纽约时报》发表了一篇关于某位律师使用ChatGPT案例引用的文章,用户却没有意识到故事是虚构的;这一也凸显了幻觉的危害性:普通用户很难察觉、识别出幻觉。最近,哈佛大学的研究人员发布了一篇报告,在几周内向各种人工智能模型提出了一系列晦涩难懂和有争议的问题,从认知信任、众包等角度研究了「大模型为什么会产生幻觉?」。
论文链接:https://dl.acm.org/doi/pdf/10.1145/3688007
实验结果也符合预期,对于具有广泛的主题,例如的名言等
原文链接:LLM等价于众包,只是在输出「网络」!哈佛大学最新报告深挖大模型幻觉!
联系作者
文章来源:夕小瑶科技说
作者微信:
作者简介:
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...