![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文笔记
文章平均质量分 94
馆主君晓
这个作者很懒,什么都没留下…
展开
-
【ICIP2022】提高对抗攻击的迁移性(在注意力空间下扰动的多样性生成)
这是发布在会议上的一篇文章,作者是韩国科学技术研究院,论文原文:https://arxiv.org/abs/2208.05650。我们知道在2D对抗攻击的领域,目前还能够做的就是提升对抗攻击的迁移性,也就是在源模型中生成的对抗样本,对于其它模型而言同样具有攻击性,也就是能够让其它模型判断失误。但是目前的问题是,生成的对抗样本对于源模型而言,攻击成功率100%,但是对于黑盒模型而言,其攻击成功率就大打折扣。原创 2022-08-25 13:38:21 · 3149 阅读 · 2 评论 -
【CVPR2022】Stealthy and Effective Physical-world Adversarial
本文首发于馆主君晓的博客:https://guanzhujx.com/archives/cvpr-2022-stealthy-and-effective-physical-world-adversarial2022CVPR,阴影也能变得很危险,对抗样本攻击,论文原文:https://arxiv.org/abs/2203.03818v2背景介绍 这篇文章是2022年的CVPR,是哈尔滨工业大学和清华大学联合发表的文章。传统模式对抗样本的生成是基于源模型并且使用梯度上升的方式使得我们生成的扰动能够使原创 2022-03-18 23:38:00 · 4139 阅读 · 0 评论 -
Feature Importance-aware Transferable Adversarial Attacks
本文首发自馆主君晓的博客,文章链接:https://www.guanzhujx.com/archives/fia-transferable-adversarial-attacks论文阅读笔记,论文链接:https://arxiv.org/pdf/2107.14185.pdf背景介绍 该文章发表在2021的ICCV会议当中,并且由浙江大学、武汉大学、Adobe联合发表。我们知道深度神经网络容易受到对抗样本的攻击,而对抗样本的生成是已知源模型的参数,然后在源模型的基础上生成对抗样本的。但是在现实原创 2022-03-10 14:05:59 · 2991 阅读 · 0 评论 -
Towards Evaluating the Robustness of Neural Networks
这是一篇论文阅读笔记,论文原文:神经网络的鲁棒性评价写在前面 本人在阅读这篇论文的时候也参考了别人的博文,参考博文的链接我会在文章最后的参考资料中列举出来,如有侵权请联系我删除。本文主要是对这篇论文的一些思想的理解,包括公式推导还有一些总结。除此之外发现原文在论文第6页中提出的7个目标函数中,第5个目标函数有错误,主要是对数里面的式子写反了,如果是仔细看的话是能够看出来的。原来的式子如下面的公式1所示,修改之后应该如公式2所示。在文中提到FFF就是经过了softmax输出的概率,那么FFF的取值范.原创 2021-11-20 11:44:36 · 2638 阅读 · 0 评论 -
生成对抗网络
论文阅读笔记,论文链接Generative Adversarial Network 生成对抗网络 GAN 理解gan的原理网络思想 在GAN网络当中,有两个网络,一个是生成网络G,另外一个是判别网络D。生成网络G的目的是生成数据,这里的数据可以是图片等数据形式。鉴别网络的目的是鉴别输入的数据是真实的数据还是由我们的生成网络生成的数据。对于生成网络,其输入就是一个噪声,输出一个我们想要的逼真的数据(假如说数据是熊猫图像的话,那么输入一个噪声,输出的是熊猫图片,并且这个熊猫图片在我们的判别网络中判别.原创 2021-11-10 20:47:15 · 3372 阅读 · 0 评论 -
Boosting Adversarial Attacks with Momentum
本文为论文阅读笔记,仅用作学习记录,Paper原文链接注:本文提到的可转移性也可以说是可移植性背景介绍 这篇文章是清华大学与英特尔中国实验室在2018年联合发布的一篇CVPR,主要提出了使用动量来增强对抗样本的攻击性,也就是在生成对抗样本的迭代过程中加入动量从而使得对抗样本具有较强的攻击性。除此之外这篇文章提出的方法获得了2017年NIPS比赛中无目标攻击组与有目标攻击组中的第一名。对抗样本目前存在的问题 在文中,作者指出对于对抗样本攻击,目前大部分存在的对抗样本攻击的方法对于黑盒模型而言.原创 2021-10-22 15:01:02 · 2162 阅读 · 0 评论