AIGC动态欢迎阅读
原标题:CCS 2024 | 如何严格衡量机器学习算法的隐私泄露? ETH有了新发现
关键字:隐私,样本,方法,报告,数据
文章来源:机器之心
内容字数:0字
内容摘要:
AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com本文作者张杰是苏黎世联邦理工大学的二年级的博士生,导师是 Florian Tramèr。本文发表在 CCS 2024 上, 第一单位是 ETH Zurich,主要探讨如何严格的衡量某个机器学习算法的隐私保护能力。arXiv地址:https://arxiv.org/pdf/2404.17399
GitHub代码:https://github.com/ethz-spylab/misleading-privacy-evals
论文标题:Evaluations of Machine Learning Privacy Defenses are Misleading
1.前言
机器学习模型往往容易受到隐私攻击。如果你的个人数据被用于训练模型,你可能希望得到一种保障,确保攻
原文链接:CCS 2024 | 如何严格衡量机器学习算法的隐私泄露? ETH有了新发现
联系作者
文章来源:机器之心
作者微信:
作者简介:
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...