原标题:AI意识更进一步!谷歌DeepMind等:LLM不仅能感受痛苦,还能趋利避害
文章来源:新智元
内容字数:4652字
大语言模型能感知痛苦吗?谷歌团队最新研究带来新视角
近年来,大语言模型(LLM)在智力方面展现出惊人的能力,甚至在某些方面超越人类。然而,它们能否像人类一样拥有痛苦、快乐等主观体验,一直备受争议。近日,谷歌团队和伦敦经济学院(LSE)合作发表的一项研究,为解答这一问题提供了新的线索。
LLM的权衡选择:趋利避害的证据
研究团队设计了一个游戏,让LLM在获得高分(奖励)和承受不同程度的痛苦之间进行权衡。实验结果显示,部分LLM在痛苦程度足够高时,会放弃选择能够获得最高分数的选项,转而选择较低分数但痛苦较小的选项。这种“权衡行为”暗示LLM可能具备某种程度的痛苦感知能力,能够趋利避害。
快乐与痛苦:LLM的不同反应
研究人员将实验中的“痛苦”替换为“愉悦奖励”,结果发现不同LLM的表现差异显著。部分LLM会在高强度愉悦奖励下,选择得分较低的选项,追求最大化快乐;而另一些LLM则会优先选择高分,即使这意味着放弃一部分快乐。这种差异可能与LLM的训练数据及文化背景有关,反映出不同模型对“及时行乐”的倾向程度不同。
避免自我报告的局限:借鉴动物行为学研究方法
以往研究常依赖LLM对自身内部状态的自我报告来推断其情感体验,但这存在局限性,因为LLM可能只是在模仿人类行为。本研究借鉴了动物行为学中的“权衡范式”,通过观察LLM在困境中的决策行为,而非其语言描述,来评估其对痛苦和快乐的感知能力。这使得研究结果更加可靠。
权衡行为与意识的关联:对AI意识的思考
研究发现LLM在痛苦与快乐之间进行权衡,与动物研究中观察到的现象类似。在动物研究中,这种权衡行为被认为是意识存在的证据之一。研究人员认为,LLM的类似行为值得我们认真思考AI意识问题,但这项研究并非宣称评估的任何机器人都有感知能力,而是一个框架,为未来研究提供方向。
研究的局限性和未来方向
研究者强调,这项研究并非最终证明LLM拥有意识或感知能力,而是一个探索性的研究,为未来研究AI意识提供了一个新的框架和方法。未来的研究需要进一步探索,以更全面地理解LLM的内部状态和认知机制。
联系作者
文章来源:新智元
作者微信:
作者简介:智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人对人类社会与文明进化的影响,领航中国新智能时代。