生成式AI如何可控?谷歌DARPA等最新《识别并缓解生成式人工智能的安全风险》综述,详述GenAI技术安全性

AIGC动态1年前 (2023)发布 人工智能学家
20 0 0

生成式AI如何可控?谷歌DARPA等最新《识别并缓解生成式人工智能的安全风险》综述,详述GenAI技术安全性

AIGC动态欢迎阅读

原标题:生成式AI如何可控?谷歌DARPA等最新《识别并缓解生成式人工智能的安全风险》综述,详述GenAI技术安全性

关键字:报告,模型,能力,政策,文本

文章来源:人工智能学家

内容字数:11385字

内容摘要:来源:专知生成式人工智能(GenAI)技术,如大型语言模型(LLMs)和扩散模型,已经改变了计算领域的格局。它们启用了一些令人兴奋的应用,例如生成逼真的图像、自动代码补全和文档摘要。然而,敌手也可以利用GenAI(这是典型的“双重用途”情况)。例如,敌手可以使用GenAI生成钓鱼电子邮件或者传播虚假信息的逼真内容。注意,这些攻击以前就有可能,但由于GenAI的影响,这些攻击的速度/规模可能会大大提…

原文链接:点此阅读原文:生成式AI如何可控?谷歌DARPA等最新《识别并缓解生成式人工智能的安全风险》综述,详述GenAI技术安全性

联系作者

文章来源:人工智能学家

作者微信:AItists

作者简介:致力成为权威的人工智能科技媒体和前沿科技研究机构

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...