AIGC动态欢迎阅读
原标题:谷歌DeepMind最新研究:对抗性攻击对人类也有效,人类和AI都会把花瓶认成猫!
关键字:图像,对抗性,人类,参与者,像素
文章来源:新智元
内容字数:7245字
内容摘要:
新智元报道编辑:alan
【新智元导读】神经网络由于自身的特点而容易受到对抗性攻击,然而,谷歌DeepMind的最新研究表明,我们人类的判断也会受到这种对抗性扰动的影响人类的神经网络(大脑)和人工神经网络(ANN)的关系是什么?
有位老师曾经这样比喻:就像是老鼠和米老鼠的关系。
现实中的神经网络功能强大,但与人类的感知、学习和理解方式完全不同。
比如ANN表现出人类感知中通常没有的脆弱性,它们容易受到对抗性扰动的影响。
一个图像,可能只需修改几个像素点的值,或者添加一些噪声数据,
从人类的角度,观察不到区别,而对于图像分类网络,就会识别成完全无关的类别。
不过,谷歌DeepMind的最新研究表明,我们之前的这种看法可能是错误的!
即使是数字图像的细微变化也会影响人类的感知。
换句话说,人类的判断也会受到这种对抗性扰动的影响。
论文地址:https://www.nature.com/articles/s41467-023-40499-0
谷歌DeepMind的这篇文章发表在《自然通讯》(Nature Communications)。
论文探索了人类是否也可能在受控测试条件下,表现出对相
原文链接:谷歌DeepMind最新研究:对抗性攻击对人类也有效,人类和AI都会把花瓶认成猫!
联系作者
文章来源:新智元
作者微信:AI_era
作者简介:智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...