AIGC动态欢迎阅读
内容摘要:
近年来各个国家和地区高度重视人工智能安全,在人工智能安全与治理领域,已经有多项法规与标准快速制定并落地。本文从大模型安全和隐私两个方面构建大模型安全体系:在大模型安全方面,提出模型可证明安全增强技术应对文本对抗样本攻击;在大模型隐私方面,提出隐私保护图像生成大模型训练以保护训练阶段的数据隐私、隐私保护大模型推理技术以保护推理阶段的数据隐私,以及大模型敏感数据遗忘技术以满足相关法律法规要求。人工智能技术目前正处于高速发展阶段,以大模型为代表的人工智能技术催生、重塑了一批新应用与新产业。目前千亿级参数规模的大模型成为主流,且预计参数量越来越大。巨量的参数改变了数据与任务范式,将人工智能由原来“手工作坊”式的工作方式升级成“工厂模式”,越来越多的企业也参与到大模型训练中来。同时,巨量的参数也使得大模型在各种应用场景有了更好的表现,比如语言生成、语音识别、视觉问答等。多模态大模型也可以更好地处理多模态数据。这种优秀的体验吸引越来越多的用户使用大模型服务,使得用户量跳跃式增加。
与此同时,大模型的广泛应用也增加了人工智能的攻击面,导致国内外人工智能安全事件频发。例如,针对大模型的攻击可以使其生成
原文链接:人工智能安全前沿探索
联系作者
文章来源:人工智能学家
作者微信:AItists
作者简介:致力成为权威的人工智能科技媒体和前沿科技研究机构
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...