这篇文章讲了防御对抗样本的一个方法。
对抗样本是在原有的样本上加了一个人不可区分的微小扰动,使机器学习算法产生错误的结果。
一般用范数开衡量扰动和原样本之间距离。关于范数
如下图,最左边图中黑色的点代表原样本,周围的蓝色区域表示对抗样本。
如果要检测出对抗样本,直观上就是要求出这个蓝色的边框。但是经过神经网络之后,蓝色边框变得不规则。
这篇文章的主要思想就是用求蓝色多边形边框的凸近似,转换成一个凸优化的问题。
这篇文章讲了防御对抗样本的一个方法。
对抗样本是在原有的样本上加了一个人不可区分的微小扰动,使机器学习算法产生错误的结果。
一般用范数开衡量扰动和原样本之间距离。关于范数
如下图,最左边图中黑色的点代表原样本,周围的蓝色区域表示对抗样本。
如果要检测出对抗样本,直观上就是要求出这个蓝色的边框。但是经过神经网络之后,蓝色边框变得不规则。
这篇文章的主要思想就是用求蓝色多边形边框的凸近似,转换成一个凸优化的问题。