第七篇论文TOWARDS DEEP LEARNING MODELS RESISTANT TO ADVERSARIAL ATTACKS(针对防御对抗性攻击的深度学习模型)
1、摘要(研究背景、解决什么问题)
本文从鲁棒优化的角度研究了神经网络的对抗鲁棒性,以往也有方法和本文研究的方向一致,如:防御蒸馏、特征压缩等其他对抗检测的方法,但这些方法只在某种程度或应用上是有效的,并且明确地给出这些方法的适用性及适用范围。那么如何训练模型,使模型对对抗输入具有鲁棒性?这是本文提出的问题。
文中提出PGD这种一阶的攻击方法,增强模型鲁棒性的方法有两种:
- 使用PGD攻击进行对抗训练
- 增大模型容量:为了抵抗对抗攻击,网络的模型容量需要大大的大于仅有干净样本情况下所需要的容量。这表明对抗鲁棒模型的边界可能比正常模型的边界更加复杂
(慢慢更新,这篇有点难理解)