Nature重磅:大模型的谎言如何“破”?牛津团队提出新方法,无需人工监督或特定领域知识

Nature重磅:大模型的谎言如何“破”?牛津团队提出新方法,无需人工监督或特定领域知识

AIGC动态欢迎阅读

原标题:Nature重磅:大模型的谎言如何“破”?牛津团队提出新方法,无需人工监督或特定领域知识
关键字:语义,方法,政策,幻觉,模型
文章来源:大数据文摘
内容字数:0字

内容摘要:


大数据文摘授权转载自学术头条
世界卫生组织(WHO)的人工智能健康资源助手 SARAH 列出了旧金山本不存在的诊所的虚假名称和地址。
Meta公司“短命”的科学聊天机器人 Galactica 凭空捏造学术论文,还生成关于太空熊历史的维基文章。
今年2月,加拿大航空被命令遵守其客户服务聊天机器人捏造的退款政策。
去年,一名律师因提交充满虚假司法意见和法律引用的法庭文件而被罚款,这些文件都是由 ChatGPT 编造的。
……
如今,大语言模型(LLM)胡编乱造的例子已屡见不鲜,但问题在于,它们非常擅长一本正经地胡说八道,编造的内容大部分看起来都像是真的,让人难辨真假。
在某些情况下,可以当个乐子一笑而过,但是一旦涉及到法律、医学等专业领域,就可能会产生非常严重的后果。
如何有效、快速地检测大模型的幻觉(hallucination),已成为当前国内外科技公司和科研机构竞相关注的热门研究方向。
如今,牛津大学团队提出的一种新方法便能够帮助我们快速检测大模型的幻觉——他们尝试量化一个LLM产生幻觉的程度,从而判断生成的内容有多忠于提供的源内容,从而提高其问答的准确性。
研究团队表示,他们的方法能


原文链接:Nature重磅:大模型的谎言如何“破”?牛津团队提出新方法,无需人工监督或特定领域知识

联系作者

文章来源:大数据文摘
作者微信:BigDataDigest
作者简介:普及数据思维,传播数据文化

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...