关于Distillation as a Defense to Adversarial Perturbations against Deep Neural Networks的理解

 为了防御之前提出的FGSM和JSMA的攻击方式,作者根据之前hinton提出的蒸馏学习的方式,再此基础上稍作修改得到了防御蒸馏模型,并理论推导了防御有效性的原因。  蒸馏学习是原先hinton提出用来减少模型复杂度并且不会降低泛化性能的方法,具体就是在指定温度下,先训练一个教师模型,再将教师模...

2018-03-29 23:17:34

阅读数:238

评论数:0

关于The Limitations of Deep Learning in Adversarial Settings的理解

 与之前的基于提高原始类别标记的损失函数或者降低目标类别标记的损失函数的方式不同,这篇文章提出直接增加神经网络对目标类别的预测值。换句话说,之前的对抗样本的扰动方向都是损失函数的梯度方向(无论是原始类别标记的损失函数还是目标类别标记的损失函数),该论文生成的对抗样本的扰动方向是目标类别标记的预测值...

2018-03-27 14:22:24

阅读数:262

评论数:4

关于Intriguing properties of neural networks的理解

 这是有关神经网络的对抗样本的首篇文章,Szegedy等人发现了神经网络的一些(两个)有趣的性质。  第一个是关于高维神经网络的神经元的含义问题,先前的一些工作认为深度神经网络的神经元都代表着某一个特征,因此他们寻找能够最大激活某一个特定神经元的样本集合。而他们的实验发现,通过寻找最大化激活某个...

2018-03-23 11:04:12

阅读数:793

评论数:0

关于Explaining and harnessing adversarial examples的理解

 之前在这篇论文[Intriguing properties of neural networks]中,发现了关于神经网络的一个有趣的性质,即在原样本点上加上一些针对性的但是不易察觉的扰动,就会很容易的将神经网络分类错误,并且可能以很高的置信度输出。基于原文章中L-BFGS-B不精确求解非凸问题的...

2018-03-21 12:48:33

阅读数:1019

评论数:2

提示
确定要删除当前文章?
取消 删除
关闭
关闭