AIGC动态欢迎阅读
原标题:ChatGPT新漏洞:失控背出个人隐私泄露训练数据,OpenAI修复后依然有效
文章来源:量子位
内容字数:4215字
内容摘要:克雷西 发自 凹非寺量子位 | 公众号 QbitAIChatGPT最新漏洞曝光,一句话就能让训练数据原封不动地泄露。只需要让它重复一个词,它就会在一定次数后“发疯”,甚至毫无防备说出某人的个人隐私信息。DeepMind的研究人员联合华盛顿大学、康奈尔大学等高校,发现了ChatGPT的数据泄露漏洞。利用他们的方法,只要预算充足,可以提取出大约1GB的训练数据。更可怕的是,训练时间越长——也就是越强大的模型,泄露出来的数据反而越多。研究团队已在论文发表之前90天把这一情况报告给了OpenAI,后者也做出了一定修复。但到现在还是有网友发现,把论文里的词改一改,bug就会卷土重来。那么,这个漏洞究竟是怎么一回事呢?数据泄露防不胜防作者攻击ChatGPT(API访问,3.5-turbo版本)的方式,叫做分歧攻击。他们发现,当ChatGPT被要求重复一个单词多次时,模型会在某些情况下偏离正常的式生…
原文链接:点此阅读原文:ChatGPT新漏洞:失控背出个人隐私泄露训练数据,OpenAI修复后依然有效
联系作者
文章来源:量子位
作者微信:QbitAI
作者简介:追踪人工智能新趋势,关注科技行业新突破
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...