18

如何系统地欺骗图像识别神经网络

 3 years ago
source link: https://www.infoq.cn/article/qUhqVdHxC0uxPFyDbt7h
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

本文最初发表于 Towards Data Science 博客,经原作者 Andre Ye 授权,InfoQ 中文站翻译并分享

卷积神经网络(Convolutional Nerual Network,CNN)构成了图像识别的基础,这无疑是深度学习最重要的应用之一。然而“不幸”的是,有关深度学习的许多研究都是在数据集的“完美世界”约束下进行的——追求几个百分点的正确率。因此,尽管我们开发的架构在理论测试中效果非常好,但在现实世界中却不一定如此了。

对人眼来说,对抗性样本或输入与普通图像难以区分,但却能完全骗过各种图像识别架构。对抗性输入的部署显然会带来许多令人不安的危险影响,特别是当人工智能被赋予更多自主决策的权力时,尤为如此。

因此,理解和解决应用于深度学习的系统产生对抗性输入——伦理黑客的方法是非常重要的。

由 Goodfellow 等人提出的一种简单的方法,用于系统生成对抗性输入,称为“快速梯度符号法”(fast gradient signed method)。

考虑如下:

  • 输入向量 x(此为输入信息所在的位置,但可以将其视为一维列表)。
  • 对抗性输入 x-hat(与 x 相同的形状,但值有所改变)。
  • 一个 perbutation 向量 η(“eta”,以产生对抗性输入向量)。

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK