MIT新研究揭秘「AI洗脑术」!AI聊天诱导人类「编造」记忆,真假难辨

AIGC动态2个月前发布 新智元
4 0 0

MIT新研究揭秘「AI洗脑术」!AI聊天诱导人类「编造」记忆,真假难辨

AIGC动态欢迎阅读

原标题:MIT新研究揭秘「AI洗脑术」!AI聊天诱导人类「编造」记忆,真假难辨
关键字:记忆,错误,机器人,参与者,诱导
文章来源:新智元
内容字数:0字

内容摘要:


新智元报道编辑:编辑部
【新智元导读】MIT研究发现:在AI的操纵下,人类会被植入虚假记忆!36.4%的参与者会被聊天机器人误导,形成「现场有枪」的错误记忆。有趣的是,AI的阿谀奉承,会产生「回音室效应」,让偏见更加强化。GenAI的影响,已经不仅仅是搜索引擎、聊天机器人这么简单了。
作为出名的效率神器,ChatGPT这样的工具正在逐渐走进各行各业,比如帮警察写文书、帮法官判案子,还有在Character.ai上扮演心理学家和人聊天。
以前,我们经常听到人类如何操纵AI,但MIT最近的研究发现,AI也可以轻易操纵人类的记忆。
论文地址:https://arxiv.org/abs/2408.04681
这项实验中,研究人员让基于LLM的聊天机器人扮演审讯员或进行盘问的出庭律师,让200名参与者先观看一段犯罪视频,然后与AI进行互动,回答有关问题,其中包含一部分诱导性提问。
结果显示,与聊天机器人的互动显著增加了错误记忆的形成。
NYU教授马库斯称,我们正在为聊天机器人制造商提供近乎疯狂的权力,制衡机制几乎为零
对于即时记忆,AI引发的错误数量是对照组的三倍以上,36.4%的参与者会被聊


原文链接:MIT新研究揭秘「AI洗脑术」!AI聊天诱导人类「编造」记忆,真假难辨

联系作者

文章来源:新智元
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...