ICLR 2024 | 联邦学习后门攻击的模型关键层

ICLR 2024 | 联邦学习后门攻击的模型关键层

AIGC动态欢迎阅读

原标题:ICLR 2024 | 联邦学习后门攻击的模型关键
关键字:后门,模型,关键,成功率,本文
文章来源:机器之心
内容字数:3621字

内容摘要:


机器之心专栏
机器之心编辑部联邦学习使多个参与方可以在数据隐私得到保护的情况下训练机器学习模型。但是由于服务器无法监控参与者在本地进行的训练过程,参与者可以篡改本地训练模型,从而对联邦学习的全局模型构成安全序隐患,如后门攻击。
本文重点关注如何在有防御保护的训练框架下,对联邦学习发起后门攻击。本文发现后门攻击的植入与部分神经网络层的相关性更高,并将这些层称为后门攻击关键层。
基于后门关键层的发现,本文提出通过攻击后门关键层绕过防御算法检测,从而可以控制少量的参与者进行高效的后门攻击。论文题目:Backdoor Federated Learning By Poisoning Backdoor-Critical Layers
论文链接:https://openreview.net/pdf?id=AJBGSVSTT2
代码链接:https://github.com/zhmzm/Poisoning_Backdoor-critical_Layers_Attack
方法本文提出层替换方法识别后门关键层。具体方法如下:
第一步,先将模型在干净数据集上训练至收敛,并保存模型参数记为良性模型。再将良性模


原文链接:ICLR 2024 | 联邦学习后门攻击的模型关键层

联系作者

文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...