AIGC动态欢迎阅读
原标题:ICLR 2024 | 联邦学习攻击的模型关键层
关键字:,模型,关键,成功率,本文
文章来源:机器之心
内容字数:3621字
内容摘要:
机器之心专栏
机器之心编辑部联邦学习使多个参与方可以在数据隐私得到保护的情况下训练机器学习模型。但是由于服务器无法监控参与者在本地进行的训练过程,参与者可以篡改本地训练模型,从而对联邦学习的全局模型构成安全序隐患,如攻击。
本文重点关注如何在有防御保护的训练框架下,对联邦学习发起攻击。本文发现攻击的植入与部分神经网络层的相关性更高,并将这些层称为攻击关键层。
基于关键层的发现,本文提出通过攻击关键层绕过防御算法检测,从而可以控制少量的参与者进行高效的攻击。论文题目:Backdoor Federated Learning By Poisoning Backdoor-Critical Layers
论文链接:https://openreview.net/pdf?id=AJBGSVSTT2
代码链接:https://github.com/zhmzm/Poisoning_Backdoor-critical_Layers_Attack
方法本文提出层替换方法识别关键层。具体方法如下:
第一步,先将模型在干净数据集上训练至收敛,并保存模型参数记为良性模型。再将良性模
联系作者
文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...