Nature:大语言模型只是没有感情的「学人精」

AIGC动态1年前 (2023)发布 大数据文摘
11 0 0

Nature:大语言模型只是没有感情的「学人精」

AIGC动态欢迎阅读

原标题:Nature:大语言模型只是没有感情的「学人精」

关键字:模型,语言,解读,角色,角色扮演

文章来源:大数据文摘

内容字数:7414字

内容摘要:大数据文摘授权转载自HyperAI超神经作者:李宝珠编辑:三羊ChatGPT 爆火后,大语言模型一跃而至,成为了行业与资本的宠儿。而在人们或是猎奇、或是探究地一次次对话中,大语言模型所表现出的过度拟人化也引起了越来越多的关注。其实,在 AI 发展的数年沉浮之中,除了技术上的更新升级外,有关 AI 伦理问题的种种争论从未停止。尤其是在 ChatGPT 等大模型应用持续深化之际,有关「大语言模型越来越像人」的甚嚣尘上,甚至有前 Google 工程师称,自家的机器人 LaMDA 已经产生了自我意识。虽然这位工程师最终被 Google 辞退,但其却一度将关于「AI 伦理」的讨论推向了——如何判定机器人是否产生自我意识?大语言模型的拟人化究竟是蜜糖还是?ChatGPT 等机器人为什么会胡编乱造?……对此,来自谷歌 DeepMind 的 Murray Shanahan,以及…

原文链接:点此阅读原文:Nature:大语言模型只是没有感情的「学人精」

联系作者

文章来源:大数据文摘

作者微信:BigDataDigest

作者简介:普及数据思维,传播数据文化

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...