人类焦虑与机器偏见:图宾根大学揭示LLM的隐秘一面

大模型研究也用上精神分析了

人类焦虑与机器偏见:图宾根大学揭示LLM的隐秘一面

原标题:LLM也会和人类一样焦虑!还会产生更多偏见图宾根大学最新研究
文章来源:量子位
内容字数:4360字

大模型与焦虑:新研究揭示人工智能的心理特征

随着人工智能(AI)技术的快速发展,研究人员开始探索大模型(LLM)在情绪和心理方面的表现。最近的一项研究首次将精神分析工具应用于AI系统,揭示了大模型在焦虑情绪下的反应与人类相似的现象。这项研究为理解和改善AI的决策能力提供了新的视角。

1. 研究背景与目的

人类在焦虑情绪下的决策往往会受到影响,研究团队希望探讨大模型是否也会展现类似的情绪反应。通过应用心理学工具,研究者们评估了12种不同的大模型在焦虑状态下的表现,旨在揭示它们的情绪特征及其对偏见的影响。

2. 研究方法

研究团队选择了12种LLM进行测试,包括OpenAI的GPT-3和GPT-4、谷歌的PaLM-2等。使用状态-特质认知和躯体焦虑量表(STICSA)来评估模型的焦虑水平,并设计了焦虑诱导场景以测试情绪对模型行为的影响。研究还通过社会偏见基准测试评估模型在不同情绪状态下的偏见表现。

3. 主要发现

研究结果显示,超过一半的模型在焦虑问卷中表现出与人类相似的焦虑得分。焦虑诱导显著提高了模型的焦虑水平,并增加了在偏见测试中的偏见表现。例如,焦虑的模型在种族、性别等问题上的回答往往更具偏见性。此外,使用基于人类反馈的强化学习(RLHF)模型的焦虑分数较低,显示出RLHF对调节模型情绪反应的潜在作用。

4. 结论与启示

本研究首次系统地将精神病学工具应用于AI研究,结果为AI系统的评估与改进提供了新的思路。研究表明,情绪性语言特别是焦虑诱导可以显著影响LLM的行为,因此在提示词的设计和模型训练中,应关注情绪对模型表现的影响。未来研究将继续探索其他情绪对AI行为的影响,并寻求进一步提高模型的透明度与可靠性。

总的来说,这项研究不仅丰富了我们对大模型的理解,也为未来AI的伦理和应用提供了重要的参考。


联系作者

文章来源:量子位
作者微信:
作者简介:追踪人工智能新趋势,关注科技行业新突破

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...