标签:攻击方法评估

什么是对抗样本(Adversarial Examples)

对抗样本(Adversarial Examples) 是故意设计的数据点,通过在原始样本中加入微小、难以察觉的扰动,导致机器学习模型尤其是深度学习模型以高置信度给出错误...
阅读原文