深挖大模型幻觉!哈佛大学最新报告:LLM等价于众包,只是在输出「网络共识」

深挖大模型幻觉!哈佛大学最新报告:LLM等价于众包,只是在输出「网络共识」

AIGC动态欢迎阅读

原标题:深挖大模型幻觉!哈佛大学最新报告:LLM等价于众包,只是在输出「网络共识
关键字:模型,报告,主题,问题,共识
文章来源:新智元
内容字数:0字

内容摘要:


新智元报道编辑:LRS
【新智元导读】哈佛大学研究了大型语言模型在回答晦涩难懂和有争议问题时产生「幻觉」的原因,发现模型输出的准确性高度依赖于训练数据的质量和数量。研究结果指出,大模型在处理有广泛共识的问题时表现较好,但在面对争议性或信息不足的主题时则容易产生误导性的回答。自ChatGPT发布以来,用户的搜索方式、人机交互都发生了极大改变,诸如问题回答、文本总结和交流对话等各种简单应用场景下的体验都有了很大提升,有时甚至超过了人类的表现。
大模型之所以能生成全面且连贯的文本,其能力主要来源于Transformer模型架构和海量预训练、微调数据集。
不过,大模型还存在一个顽疾「幻觉」,会生成一些看似真实但非事实、无意义或与给定提示不一致的回应,可能会导致错误信息的传播,在关键决策应用中造成有害后果,甚至导致用户对AI系统的不信任。之前就发生过相关案例,《纽约时报》发表了一篇关于某位律师使用ChatGPT案例引用的文章,用户却没有意识到故事是虚构的;这一事件也凸显了幻觉的危害性:普通用户很难察觉、识别出幻觉。
最近,哈佛大学的研究人员发布了一篇报告,在几周内向各种人工智能模型提出了一系列


原文链接:深挖大模型幻觉!哈佛大学最新报告:LLM等价于众包,只是在输出「网络共识」

联系作者

文章来源:新智元
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...