大佬亲身示范:操纵AI如此简单,LLM不仅「发疯」还造谣诽谤

大佬亲身示范:操纵AI如此简单,LLM不仅「发疯」还造谣诽谤

AIGC动态欢迎阅读

原标题:大佬亲身示范:操纵AI如此简单,LLM不仅「发疯」还造谣诽谤
关键字:微软,机器人,模型,表示,搜索引擎
文章来源:新智元
内容字数:0字

内容摘要:


新智元报道编辑:乔杨 Frey
【新智元导读】当谷歌的Gemini建议给比萨加胶水时,网友尚能发挥娱乐精神玩梗解构;但当LLM输出的诽谤信息中伤到到真实人类时,AI搜索引擎的未来是否值得再三思量?ChatGPT问世已经过去了将近两年的时间,我们对这项技术也逐渐祛魅,逐渐习以为常。
相信现在使用LLM的用户大多都是出于「提升生产力」的需要,很少有人找模型纯聊天,我们也逐渐忘记了它们的输出可以有多「疯狂」。
失控的AI料钱机器人时间回到2023年2月,OpenAI刚刚更改了自己的时间线,紧急推出ChatGPT;微软也迫不及待地用上了最新的GPT模型。
LLM集成的聊天机器人Bing Chat就这样「赶鸭子上架」了,紧急得似乎还没有做好护栏。
内测刚开始时,《纽约时报》记者Kevin Roose还对Bing大加赞赏,专门写了一篇文章表达自己的赞叹之情。
Roose甚至表示,初次试用Bing的体验,让他回想起了初遇谷歌搜索时的兴奋和激动。
然而,就在一周之后,Kevin Roose再发一文,语气和态度却来了一个180度大转弯,从Bing的忠实粉丝变成了直言不讳的批评者。
原因无他,主要是Bi


原文链接:大佬亲身示范:操纵AI如此简单,LLM不仅「发疯」还造谣诽谤

联系作者

文章来源:新智元
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...