Google DeepMind 最新研究:搞定这三个任务?人类不行,AI 也不行

Google DeepMind 最新研究:搞定这三个任务?人类不行,AI 也不行

AIGC动态欢迎阅读

原标题:Google DeepMind 最新研究:搞定这三个任务人类不行,AI 也不行
关键字:人类,任务,模型,语言,内容
文章来源:人工智能学家
内容字数:0字

内容摘要:


撰文 | 赵雅琦前言人工智能(AI)并非完美的推理者,即使是当前大热的语言模型(LMs),也同样会表现出与人类类似的错误倾向,尤其是出现显著的“内容效应”(Content effects)——人们在处理与已有知识或信念相符的信息时,推理更加准确和自信,而在处理与这些知识或信念相悖的信息时,推理可能会出现偏差或错误。这一结论来自 Google DeepMind 团队近期发表的一篇研究论文。人类存在两种推理系统,“直觉系统”和“理性系统”,且在推理过程中容易受到已有知识和经验的影响。例如,当面对合乎逻辑但不合常理的命题时,人们往往会错误地判定其无效。
有趣的是,该研究显示,大型 Transformer 语言模型也可以表现出类似人类的这种行为,既可以展示出直觉性偏见,也可以在提示下表现出一致的逻辑推理。这意味着,语言模型也能模拟人类的双系统行为,也会表现出“经验主义”错误。在这项工作中,研究团队对比了 LMs 和人类分别在自然语言推断(NLI)、判断三段论(Syllogisms)的逻辑有效性和 Wason 选择任务三种推理任务上的表现。图 | 三种推理任务操作内容结果发现,在三种推理任务中,


原文链接:Google DeepMind 最新研究:搞定这三个任务?人类不行,AI 也不行

联系作者

文章来源:人工智能学家
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...