原标题:AI的“随机性”挑战:它们比人类更“不随机”?
文章来源:人工智能学家
内容字数:10055字
人类、AI与随机性:一项关于大语言模型偏差的有趣研究
本文探讨了一项来自康奈尔大学的研究,该研究考察了大语言模型(LLM)在生成随机序列方面的表现,并将其与人类的“伪随机”行为进行了比较。研究发现,LLM不仅未能实现真正的随机性,反而继承并放大了人类在随机性任务中的固有偏差。
人类的“伪随机”行为
人类并非真正的随机数生成器。我们倾向于在看似随机的中寻找模式和规律,这导致我们在选择时表现出可预测的偏差。例如,在选择1到10之间的数字时,人们更倾向于选择7;在抛硬币实验中,人们也往往无法生成真正的随机序列。
LLM的随机性实验:虚拟硬币抛掷
研究人员通过一个经典的实验——生成二进制随机序列(模拟抛硬币)——来评估LLM(GPT-4和Llama-3)的随机性。他们使用了“温度”参数来控制模型输出的多样性,温度越高,输出越随机。
AI继承并放大了人类偏差
实验结果显示,LLM在生成随机序列时,表现出了与人类相似的偏差,甚至在某些情况下还加剧了这些偏差。具体而言:
“正面优先”偏差:超过88%的AI生成的序列以“正面”开始,远高于人类的比例,尤其Llama-3的偏差最为明显。
“平衡”偏差:GPT-4和Llama-3生成的序列中,正面和反面的比例往往过于接近50%,比真正的随机序列更“平衡”,也与人类的倾向相符。
“过度切换”偏差:人类在生成随机序列时,往往会过度切换正面和反面,以使其看起来更“随机”。AI模型也继承了这种倾向,甚至将其放大。
温度参数的影响
温度参数影响着LLM输出的多样性。过高的温度会使输出变得混乱,而过低的温度则会限制多样性。研究发现,即使温度变化,LLM的“正面优先”偏差依然存在。
研究意义
这项研究揭示了LLM在随机性任务中的局限性,也进一步阐明了人类认知偏差对AI系统的影响。 理解这些偏差对于改进LLM的设计和应用至关重要,这有助于开发更可靠、更强大的AI系统。 未来的研究可以进一步探索这些偏差的根源以及如何减轻它们的影响。
总而言之,这项研究不仅揭示了大语言模型在模拟随机性方面的不足,更重要的是,它强调了人类认知偏差在人工智能系统中的深远影响,以及在构建更可靠的AI系统时,对这些偏差进行深入研究和纠正的重要性。
联系作者
文章来源:人工智能学家
作者微信:
作者简介:致力成为权威的人工智能科技媒体和前沿科技研究机构