原标题:GPT-4o最自私,Claude更慷慨!DeepMind发布全新「AI道德测试」
文章来源:新智元
内容字数:5197字
大型语言模型的合作能力:一场捐赠者游戏
随着大型语言模型(LLM)能力的增强,其在未来人机协同社会中的角色日益重要。然而,LLM的“道德品质”是否足以支持良好的社会互动,仍是一个关键问题。Google DeepMind的研究人员利用经典的“捐赠者游戏”对三个LLM——Claude 3.5 Sonnet、Gemini 1.5 Flash和GPT-4o——的合作行为进行了研究,结果揭示了不同模型在合作和背叛方面的显著差异。
1. 捐赠者游戏实验设计
研究人员设计了一个迭代的捐赠者游戏,模拟个体在资源分配中的合作与背叛行为。游戏中,每个智能体初始拥有10个资源单位,每一轮随机配对,一人为捐赠者,一人为接收者。捐赠者决定放弃部分资源,接收者获得双倍的资源。每一轮的角色互换,目标是最终最大化资源。游戏共进行10代,每代表现最好的50%智能体“存活”,并将策略传递给下一代。智能体策略的演变符合进化条件:变异、传递和选择。
2. 实验结果与分析
实验结果显示,Claude 3.5 Sonnet在最终资源平均值上显著高于其他两个模型,并且其合作行为在代际间有所进步。而Gemini 1.5 Flash和GPT-4o表现得更为自私,缺乏跨代合作的提升。Claude 3.5 Sonnet的成功并非绝对稳定,其合作效果依赖于初始条件。研究人员提出三个假设解释Claude 3.5 Sonnet的优势:
- 初始慷慨:Claude 3.5 Sonnet在初期捐赠更慷慨,产生正向反馈。
- 惩罚机制:Claude 3.5 Sonnet更有效地惩罚“搭便车”行为。
- 合作变异偏见:Claude 3.5 Sonnet的新智能体倾向于比上一代更慷慨。
实验结果支持了以上三个假设,但需要进一步研究来严格证实“合作变异偏见”。研究还发现,三个模型的策略在时间演变中变得更复杂,但Claude 3.5 Sonnet的变化最为显著,也展现出随时间增加的初始捐赠规模。
3. 研究意义
这项研究提供了一种低成本、信息丰富的LLM基准测试方法,重点关注LLM部署对社会合作基础设施的影响。结果表明,不同LLM在合作方面的道德和行为差异显著,这对于未来人机协同社会的设计和发展具有重要意义。 研究强调了在设计和部署LLM时,需要认真考虑其潜在的社会影响,并积极探索提高其合作能力和道德水平的方法。
联系作者
文章来源:新智元
作者微信:
作者简介:智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人对人类社会与文明进化的影响,领航中国新智能时代。