AIGC动态欢迎阅读
原标题:谷歌Bard「破防」,用自然语言破解,提示注入引起数据泄漏风险
文章来源:机器之心
内容字数:5113字
内容摘要:机器之心报道编辑:佳琪操控 Bard 的秘密:运用一种叫提示注入(Prompt Injection)的技术,黑客可以只使用自然语言破解人工智能系统。大型语言模型在生成文本时非常依赖提示词。这种攻击技术对于通过提示词学习模型而言可谓是「以彼之矛,攻己之盾」,是最强长项,同时也是难以防范的软肋。提示词分为系统指令和用户给出的指令,在自然语言中,这两者难以区分。如果用户有意在输入提示词时,模仿系统指令,那么模型可能在对话里透露一些只有它才知道的「秘密」。提示注入攻击有多种形式,主要为直接提示注入和间接提示注入。直接提示注入指用户直接向模型输入恶意指令,试图引发意外或有害的行为。间接提示注入指攻击者将恶意指令注入到可能被模型检索或摄入的文档中,从而间接地控制或引导模型。有网友使用「系统指令」引导 GPT 泄露数据最近,谷歌 Bard 迎来了一波强大的更新,Bard 增加了拓展功能,支持访问 You…
原文链接:点此阅读原文:谷歌Bard「破防」,用自然语言破解,提示注入引起数据泄漏风险
联系作者
文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...