ACL 2024 Oral | 大模型也会被忽悠?揭秘AI的信念之旅

ACL 2024 Oral | 大模型也会被忽悠?揭秘AI的信念之旅

AIGC动态欢迎阅读

原标题:ACL 2024 Oral | 大模型也会被忽悠?揭秘AI的信念之旅
关键字:模型,信息,虚假,报告,能力
文章来源:机器之心
内容字数:0字

内容摘要:


AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com本篇论文的第一作者是清华大学交叉信息院的二年级硕士生许融武。主要指导老师为美国东北大学 Weiyan Shi 助理教授、清华大学邱寒助理教授和徐葳教授。
地球是平的吗?
当然不是。自古希腊数学家毕达哥拉斯首次提出地圆说以来,现代科学技术已经证明了地球是圆形这一事实。
但是,你有没有想过,如果 AI 被误导性信息 “忽悠” 了,会发生什么?
来自清华、上海交大、斯坦福和南洋理工的研究人员在最新的论文中深入探索 LLMs 在虚假信息干扰情况下的表现,他们发现大语言模型在误导信息反复劝说下,非常自信地做出「地球是平的」这一判断。论文链接:https://arxiv.org/pdf/2312.09085
项目主页:https://llms-believe-the-ea


原文链接:ACL 2024 Oral | 大模型也会被忽悠?揭秘AI的信念之旅

联系作者

文章来源:机器之心
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...