对抗攻击
文章平均质量分 79
对抗攻击相关知识的笔记
学而时习之!!
这个作者很懒,什么都没留下…
展开
-
论文笔记《Improving the Transferability of Adversarial Examples with Resized-Diverse-Inputs, Diversity-E》
提示:这里对文章进行总结:例如:以上就是今天要讲的内容,本文仅仅简单介绍了pandas的使用,而pandas提供了大量能使我们快速便捷地处理数据的函数和方法。在本文中,我们引入了一个三个阶段的管道:调整大小的多样性输入(RDIM)、多样性集成(DEM)和区域拟合,它们共同生成可转移的对抗性例子。我们首先探讨了DIM和TIM之间的内部关系,并提出了更适合于描述这种关系的RDIM。RDIM结合TIM,可以平衡梯度信息损失和条纹需求之间的矛盾。...原创 2022-08-16 12:05:35 · 378 阅读 · 1 评论 -
论文笔记《NESTEROV ACCELERATED GRADIENT AND SCALE INVARIANCE FOR ADVERSARIAL ATTACKS》
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档。原创 2022-08-11 16:33:12 · 978 阅读 · 0 评论 -
论文笔记(四)《Admix: Enhancing the Transferability of Adversarial Attacks》
《混合:增强对抗性攻击的可转移性》一、abstractwe propose a new input transformation based attack method called Admix that considers the input image and a set of images randomly sampled from other categories. Instead of directly calculating the gradient on the original inpu原创 2022-03-14 16:56:34 · 530 阅读 · 0 评论 -
论文笔记(一)《Intriguing properties of neural networks》
这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入欢迎使用Markdown编辑器你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Mar原创 2022-02-21 14:50:44 · 1109 阅读 · 0 评论 -
论文笔记(五)《explaining and harnessing adversarial examples》
2020.03.23陆陆续续的在读论文了,参考了其他人分享的读书笔记,但是还是没怎么读懂,理不清思路。继续读吧《解释和利用对抗样本》基础知识abstract包括神经网络在内的几个机器学习模型,通过对数据集中的例子施加小的但故意的最坏情况的扰动,不断地对对抗示例输入进行错误分类,这样,受扰动的输入导致模型输出一个高可信度的错误答案。早期对这一现象的解释主要集中在非线性和过拟合上。相反,我们认为神经网络易受对抗干扰的主要原因是它们的线性性质。这种解释得到了新的定量结果的支持,同时给出了关于它们最原创 2022-03-23 21:26:04 · 767 阅读 · 0 评论 -
图像对抗样本研究总结
1.名词解释攻击方法白盒攻击:需要完整的知道model的结构和对应的梯度等信息。黑盒攻击:不需要完整的知道model的结构和对应的梯度等信息,只需要知道经过该模型的预测结果,用于作为评测的数据输入。目标攻击:指将原始样本通过攻击后,指定攻击后的结果类别。非目标攻击:指将原始样本通过攻击后,结果类别与原有的模型类别不同即可。单步攻击:只需执行一次操作就可获得对抗样本。迭代攻击:需要执行多步迭代操作才能获得样本。一般,迭代攻击产生的对抗样本比单步攻击产生的对抗样本效果好,但需要更多的执行时间。原创 2022-05-03 20:10:54 · 1906 阅读 · 0 评论 -
论文笔记(七)《Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks》
原文代码:https://github.com/junyanz/pytorch-CycleGAN-and-pix2pix精简CycleGAN代码:https://github.com/aitorzip/PyTorch-CycleGAN (已实测可用)(代码还没有运行过,现在的状态还是不会去跑代码。。。)ready风格迁移:Pix2Pix 原文链接:https://arxiv.org/abs/1611.07004),不过Pix2Pix要求训练数据必须是成对的Disco GAN, Dual GAN原创 2022-05-03 20:06:43 · 1068 阅读 · 0 评论 -
论文笔记(二)《Adversarial Manipulation of Deep Representations》
1.看过摘要之后,自己提出几个问题;具体如何针对DNN内部层,生成新的对抗网络?2.对应问题的解答;3.用自己的话阐述文章的核心问题和思路;4.可能改进的地方;5.自己画一遍文章的流程图;6.捋一遍算法流程.abstract我们证明,深度神经网络(DNN)中的图像表示可以被操纵,以模仿其他自然图像,只对原始图像进行微小的、难以察觉的扰动。以前的对抗图像生成方法主要针对产生错误类别标签的图像扰动。在这里,我们转而专注于DNN表示的内部层,以产生一种新的对抗图像这种图像在质量上与其他图像不同。虽原创 2022-03-02 20:05:08 · 2915 阅读 · 0 评论 -
论文笔记(六))《real-world adversarial examples involving makeup application 》
code:https://github.com/rcmalli/keras-vggface《现实世界的对抗性例子涉及化妆应用》摘要:深度神经网络发展迅速,在图像分类、自然语言处理等领域取得了优异的性能。然而,最近的研究表明,数字和物理对抗的例子都可以欺骗神经网络。人脸识别系统被用于涉及来自物理对抗实例的安全威胁的各种应用。在这里,**我们建议使用全身化妆的身体对抗性攻击。**在人的脸上化妆是一种合理的可能性,这可能会增加攻击的隐蔽性。在我们的攻击框架中,我们结合了循环对抗生成网络(cycle-GAN)原创 2022-04-28 21:25:14 · 1864 阅读 · 0 评论 -
论文笔记(八)《One Pixel Attack for Fooling Deep Neural Networks》》
摘要论文分析了修改一个像素的有限场景下的一种攻击。提出了一种基于差分进化的生成1像素对抗扰动的方法。(黑盒攻击)。由于差分进化固有的特征,所以它可以愚弄更多类型的网络。结果显示在平均置信度为74.03%和22.91% 的情况下通过修改1像素,Kaggle CIFAR-10测试数据集67.97%的自然图像和16.04%的ImageNet (ILSVRC 2012)测试图像中,只要修改一个像素,就可以被扰动到至少一个目标类。因此,提出的攻击探讨了在极端有限的情况下对抗性机器学习的不同看法,显示当前dnn也容原创 2022-05-05 21:33:33 · 1012 阅读 · 0 评论 -
论文笔记《Admix: Enhancing the Transferability of Adversarial Attacks》
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档。原创 2022-08-09 10:59:40 · 721 阅读 · 0 评论 -
论文笔记(三)《Enhancing the Transferability of Adversarial Attacks through Variance Tuning》
《通过方差调整来增强对抗攻击的可转移性》一、AbstractIn this work, we propose a new method called variance tuning to enhance the class of iterative gradient based attack methods and improve their attack transferability.在本文中,我们提出了一种新的方法,称为方差调优,以增强基于迭代梯度的攻击方法,并提高它们的攻击可转移性。we f原创 2022-05-03 18:55:05 · 309 阅读 · 0 评论 -
《PyTorch生成对抗网络编程》——读书笔记1
生成对抗网络改良方法:①改损失函数第一种情况:神经网络输出值为连续范围的值,均方差MSELoss()适用第二种情况:网路设计输出为true/false或1/0,(是或不是)二元交叉熵损失BCELoss()适用②改激活函数有的激活函数梯度会消失,如果发生梯度消失就无法通过梯度来更新链接权重。传统的S型激活函数在处理较大值时,具有梯度消失的缺点。这在网络训练时会造成反馈信号减弱。ReLU激活函数部分解决了这一问题,保持正值部分良好的梯度值。LeakyReLU进一步改良,在负值部分增加一个很小却不原创 2022-04-13 16:56:09 · 166 阅读 · 0 评论 -
《Al安全之对抗样本入门》读书笔记 2
基本概念范数L0范数:在对抗样本中,常指对抗样本相对原始图片所修改像素的个数。L1范数:也叫做曼哈顿距离、最小绝对误差,度量两个向量之间的差异,表示向量中非零元素的绝对值之和。L2范数:欧氏距离就是L2范数,表示向量元素的平方再开方。指对抗样本相对原始图片所修改像素的变化量的平方和再开方。无穷范数:Linf,用于度量向量元素的最大值,指对抗样本相对原始图片所修改像素的变化量绝对值的最大值。基于CNN的图像分类 卷积神经网络局部连接参数共享卷积处理后的图像的大小与卷积核无关,仅与步长有关,对原创 2022-03-01 09:39:37 · 310 阅读 · 0 评论 -
《Al安全之对抗样本入门》读书笔记 1
深度学习的基础知识概念深度学习:分为训练和预测。训练过程:先通过预定义好的网格结构,在打好标记的数据上进行训练,通过一定的算法不算调整网络参数,直到完成模型训练。预测过程:将数据输入到训练好的模型中进行运算并获得预测结果。预测数据集一般占全部数据集的20%到40%。步骤1.数据预处理:把实物特征化,表示为多维向量。例如,图片可表示为一个多维数组,形状为长度、宽度和信道数,比如一个分辨率为160160的RGB图像,可以表示成形状为[160,160,3]的向量。2.定义网络结构:完整的深度学习模型原创 2022-02-28 10:22:41 · 258 阅读 · 0 评论