Nature 确认:大语言模型只是没有感情的「学人精」

Nature 确认:大语言模型只是没有感情的「学人精」

AIGC动态欢迎阅读

原标题:Nature 确认:大语言模型只是没有感情的「学人精」

关键字:模型,语言,解读,角色,角色扮演

文章来源:HyperAI超神经

内容字数:7573字

内容摘要:作者:李宝珠编辑:三羊DeepMind、EleutherAI 科学家提出,大模型只是在角色扮演。ChatGPT 爆火后,大语言模型一跃而至,成为了行业与资本的宠儿。而在人们或是猎奇、或是探究地一次次对话中,大语言模型所表现出的过度拟人化也引起了越来越多的关注。其实,在 AI 发展的数年沉浮之中,除了技术上的更新升级外,有关 AI 伦理问题的种种争论从未停止。尤其是在 ChatGPT 等大模型应用持续深化之际,有关「大语言模型越来越像人」的言论甚嚣尘上,甚至有前 Google 工程师称,自家的聊天机器人 LaMDA 已经产生了自我意识。虽然这位工程师最终被 Google 辞退,但其言论却一度将关于「AI 伦理」的讨论推向了高潮——如何判定聊天机器人是否产生自我意识?大语言模型的拟人化究竟是蜜糖还是砒霜?ChatGPT 等聊天机器人为什么会胡编乱造?……对此,来自谷歌 DeepMind 的 M…

原文链接:点此阅读原文:Nature 确认:大语言模型只是没有感情的「学人精」

联系作者

文章来源:HyperAI超神经

作者微信:HyperAI

作者简介:解构技术先进性与普适性,解读更前沿的 AIForScience 案例

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...