当AI取代真相,大模型如何一步步诱骗了人类的文明?| 追问观察

当AI取代真相,大模型如何一步步诱骗了人类的文明?| 追问观察

AIGC动态欢迎阅读

原标题:当AI取代真相,大模型如何一步步诱骗了人类的文明?| 追问观察
关键字:模型,信息,虚假,启发式,人工智能
文章来源:人工智能学家
内容字数:0字

内容摘要:


如今,人们选择餐厅,多半会打开app搜索一番,再看看排名。然而美国奥斯汀的一家餐厅Ethos的存在证实这种选择机制多么不可靠。Ethos在社交媒体instagram宣称是当地排名第一的餐厅,拥有7万余粉丝。
实际上,这家看起来很靠谱的餐厅根本不存在,食物和场地的照片都由人工智能生成。可它家发布在社媒上的帖子却得到了数千名不知情者的点赞和评论。大模型通过视觉形式误导公众认知,引发了人们对其潜在影响的深刻思考。▷图1:图源:X大型语言模型(LLMs),由于其幻觉及涌现特性,总让人们忧虑其传播虚假信息的可能。然而这一现象背后的机理我们却不甚了解。大模型究竟如何改变人类的心理机制,让人们越来越难以判断一件事情真实与否,并失去对专业机构和彼此的信任?
2024年10月发表的一篇名为“Large language models (LLMs) and the institutionalization of misinformation(大语言模型与虚假信息的制度化)”的研究[1],点出了大模型和虚假信息的关系:它比我们所了解的更为深远与复杂。▷Garry, Maryanne, et al. “Lar


原文链接:当AI取代真相,大模型如何一步步诱骗了人类的文明?| 追问观察

联系作者

文章来源:人工智能学家
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...