对抗攻击的粗糙理解
——构造对抗样本欺骗机器的学习
对抗攻击的开山之作 《Intriguing properties of neural networks》中提到了神经网络的两个现象。
第一个是高维神经网络的神经元并不是代表着某一个特征,而是所有特征混杂在所有神经元中;第二个是在原样本点上加上一些针对性的但是不易察觉的扰动,就很容易导致神经网络的分类错误。
第二个性质就是对抗攻击的理论基础,后来Goodfellow 在《 Explaining and Harnessing Adversarial Examples》中提出原因并非是深层神经网络的高度非线性和过拟合,即使是线性模型也存在对抗样本。我们可以粗浅地认为对抗攻击之所以能够成功的原因是误差放大效应。
补充知识 对张量的解释
1个数字为标量,0维张量
1串数字为向量,1维张量,数组
**思维上的理解:**其他维度顶一个点,对一个维度进行写入。例如:三维,x、y顶一个点,对z维进行写入
程序中向张量中写数据的方式:
三维:写二维加三维
四维:写三维加四维
五维:写思维加五维
图片(长、宽、颜色)三维
视频(长、宽、颜色、时间)四维