![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
对抗攻击
汐梦聆海
過去を捨てなくては 未来の場所がない
展开
-
《Ensemble Generative Cleaning with Feedback Loops for Defending Adversarial Attacks》论文笔记
这是一篇cvpr20的文章,属于对对抗攻击的防御方法。 涉及的问题 深度神经网络在cv领域的应用如日中天,但是神经网络自身具有脆弱性,即通过很小的扰动就能使得最终的结果出现错误。例如现在非常流行的FGSM,BIM,PGD,C&W等攻击手段,都能很大程度上对神经网络进行攻击和破坏。因此研究神经网络的防御机制是非常有必要的。 目前比较流行的防御机制有adversarial training,defensive distillation,Magnet以及feature squeezing。但是这些方法在一原创 2020-11-20 13:48:52 · 852 阅读 · 1 评论 -
《One-shot Adversarial Attacks on Visual Tracking with Dual Attention》论文笔记
这是cvpr20的一篇与对抗攻击相关的文章。 涉及的问题 深度学习虽然在cv领域硕果累累,但是它的脆弱性(vulnerable)是众所周知的。通过人眼无法察觉的微小改动,就可以使得神经网络模型产生截然不同的预测。这篇文章涉及的问题是:作者首次将对抗攻击引入到视频目标追踪(Video Object Tracking,VOT)中,研究如何攻击VOT领域中的SOTA模型,如SiamRPN等。 与传统的对图像分类或目标检测模型的攻击不同,对VOT模型的攻击涉及以下几个难点:(1)VOT任务大多是online的,因此原创 2020-11-15 00:33:22 · 982 阅读 · 1 评论