论文学习
@logics
见风仍然是风
展开
-
【论文阅读】Adversarial Vertex Mixup: Toward Better Adversarially Robust Generalization#CVPR2020
解决问题: 虽然对抗性训练是对抗性训练中最有效的防御形式之一,但不幸的是,对抗性训练中存在着测试准确性和训练准确性之间的矛盾。 总结 : 在本文中,我们发现对抗性特征过拟合(AFO)会导致对抗性鲁棒泛化能力差,并且我们证明了对抗性训练可以在鲁棒泛化方面超过最优点,从而导致我们的简单高斯模型中的AFO。考虑到这些理论结果,我们提出软标记作为一种解决AFO问题的方法。此外,我们还提出了对抗性顶点合成(AVmixup),这是一种软标记的数据增强方法,用于改进对抗性鲁棒泛化。通过对CIFAR10、CIFA..翻译 2020-06-25 18:40:27 · 875 阅读 · 0 评论 -
【论文阅读】Universal Adversarial Perturbation via Prior Driven Uncertainty Approximation
算法结构: 思路: 认知不确定性解释了最适合训练数据的模型参数的不确定性,如ImageNet。CNN的不确定性可以通过每个convolutional layer上被激活神经元的数量来反映。在模型输出过程中,激活的可信神经元越多,获得的不确定性就越多,从而得到更好的UAP。为此,我们在UAP学习中引入了虚拟模型不确定性,目的是通过蒙特卡罗丢失率(Monte Carlo Dropout, MC Dropout)[8]来激活更多的神经元,增加每个卷积层的模型不确定性。 任意不确定性是一种不依赖于数据但.原创 2020-05-29 22:12:29 · 793 阅读 · 0 评论 -
【论文阅读】A Self-supervised Approach for Adversarial Robustness#CVPR2020
combine the benefits of Adversarial training and input processing and propose a self-supervised adversarial training mechanism in the input space.Code is available at: https://github.com/Muzammal-Naseer/NRP 介绍: 基于AT和输入处理方法的互补性,我们在输入空间中提出了一种自监督AT机制。我们的...原创 2020-06-24 17:15:59 · 1299 阅读 · 1 评论