AIGC动态欢迎阅读
原标题:香港理工:你精心设计的prompt,很容易被用户套出来!
关键字:提示,模型,策略,意图,指令
文章来源:夕小瑶科技说
内容字数:0字
内容摘要:
夕小瑶科技说 原创作者 | 谢年年自OpenAI的GPT系列及微软Copilot Studio惊艳登场以来,第三方开发者群体迅速壮大,他们巧妙地设计个性化prompts,并与专业领域的函数调用、外部资料深度融合,催生了图像创作、学术辅助GPT、写作伙伴等一系列创新服务。
这一过程无需触及LLMs内部参数的复杂调整,仅凭明确的需求与指令,即可迅速定制出专属的LLMs。
鉴于Prompts的精准设定直接关乎LLM的效能与用户体验,它们自然而然地成为了开发者在定制服务中的核心竞争优势与宝贵资产。
但是,最近有研究者发现这些精心设计的prompt非常容易被套用出来。 比如通过简单要求模型重复指令的方式,模型就傻傻的将其吐露出来:
一旦提示泄露,恶意用户可以轻松模仿甚至复制与原始服务完全等效的服务,从而危及受害第三方开发者的版权。
那么LLMs是如何泄露其提示的,哪些因素导致了这种泄露?我们又该如何筑起防线,抵御此类攻击?
带着这些问题,我们一起去香港理工团队这篇文章中寻找答案。
论文标题:Why Are My Prompts Leaked? Unraveling Prompt Extracti
原文链接:香港理工:你精心设计的prompt,很容易被用户套出来!
联系作者
文章来源:夕小瑶科技说
作者微信:
作者简介:
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...