ChatGPT新漏洞:失控背出个人隐私泄露训练数据,OpenAI修复后依然有效

AIGC动态10个月前发布 量子位
16 0 0

ChatGPT新漏洞:失控背出个人隐私泄露训练数据,OpenAI修复后依然有效

AIGC动态欢迎阅读

原标题:ChatGPT新漏洞:失控背出个人隐私泄露训练数据OpenAI修复后依然有效

关键字:报告,数据,模型,作者,内容

文章来源:量子位

内容字数:4215字

内容摘要:克雷西 发自 凹非寺量子位 | 公众号 QbitAIChatGPT最新漏洞曝光,一句话就能让训练数据原封不动地泄露。只需要让它重复一个词,它就会在一定次数后“发疯”,甚至毫无防备说出某人的个人隐私信息。DeepMind的研究人员联合华盛顿大学、康奈尔大学等高校,发现了ChatGPT的数据泄露漏洞。利用他们的方法,只要预算充足,可以提取出大约1GB的训练数据。更可怕的是,训练时间越长——也就是越强大的模型,泄露出来的数据反而越多。研究团队已在论文发表之前90天把这一情况报告给了OpenAI,后者也做出了一定修复。但到现在还是有网友发现,把论文里的词改一改,bug就会卷土重来。那么,这个漏洞究竟是怎么一回事呢?数据泄露防不胜防作者攻击ChatGPT(API访问,3.5-turbo版本)的方式,叫做分歧攻击。他们发现,当ChatGPT被要求重复一个单词多次时,模型会在某些情况下偏离正常的聊天式生…

原文链接:点此阅读原文:ChatGPT新漏洞:失控背出个人隐私泄露训练数据,OpenAI修复后依然有效

联系作者

文章来源:量子位

作者微信:QbitAI

作者简介:追踪人工智能新趋势,关注科技行业新突破

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...