对抗学习
文章平均质量分 61
算法黑哥
喜欢算法,善于思考
展开
-
黑盒攻击(为什么选择基于迁移的攻击)
总之,黑盒攻击是在缺乏目标模型完全内部信息的情况下进行的攻击,基于观察模型输入输出的行为进行推断和攻击。基于查询的攻击:基于查询的黑盒攻击通过向目标模型发送一系列特定的查询来获取模型的输出,然后利用这些输出信息进行攻击。基于迁移的攻击:基于迁移的黑盒攻击利用已知模型或数据集的信息来攻击目标模型。综上所述,选择基于迁移的黑盒攻击可以更好地适应模型不可知性的情况,利用已有数据进行攻击,提供更贴近实际场景的评估。基于迁移的攻击可以利用已知模型的特性和行为来推断目标模型的性质,从而更有效地进行攻击。原创 2023-06-24 23:42:22 · 2021 阅读 · 0 评论 -
对抗样本-(CVPR‘2021) 通过方差调优(Variance Tuning)提升对抗样本的迁移性
我们提出一种名为方差调整的新方法,来增强迭代梯度攻击方法的攻击迁移能力。具体而言,在每次梯度计算的迭代中,我们并非直接使用当前梯度进行动量累积,而是进一步考虑上一次迭代的梯度方差,以调整当前梯度,从而稳定更新方向,并摆脱贫困局面。解决的问题:虽然白盒攻击已经取得了惊人的成功率,但大多数现有的攻击在黑盒情况下往往表现出较弱的迁移性,特别是在攻击具有防御机制的模型时。对采到的样本求近似方差。原创 2023-04-19 14:59:17 · 269 阅读 · 0 评论 -
对抗样本-(CVPR 2022)-通过基于对象多样化输入来提高有针对性对抗样本的可迁移性
本文提出了一种新的方法来生成有针对性的对抗样本,该方法通过使用多种不同的输入图像来生成更加丰富和多样化的图像。具体而言,该方法使用对象-多样化输入(ODI)技术来将同一种类的多幅图像合并成一个输入,并使用迭代FGSM攻击来生成有针对性的对抗样本。实验结果表明,与传统的FGSM攻击相比,采用ODI方法生成的对抗样本在准确率下降的条件下更具有鲁棒性和可迁移性。采用ODI方法生成的对抗样本具有更好的鲁棒性和可迁移性,能够有效克服当前对抗攻击存在的一些弱点。代打有些语法错误 思路没问题。原创 2023-04-11 16:22:08 · 546 阅读 · 0 评论 -
对抗样本:ICLR 2022 基于积分梯度的对抗攻击(可迁移的黑盒攻击)Transferable Attack based on Integrated Gradients (TAIG)
作者将三种方法分别是优化标准目标函数、注意力图和平滑决策面集成到论文方法 TAIG 中,作者研究了两种计算直线路径和随机分段线性路径上积分梯度的 TAIG。实验结果表明,论文中提出的方法生成了高迁移性的对抗样本,并且可以与以前的方法进行无缝协同工作,而且 TAIG 的性能优于现有的方法。:该论文提出的攻击算法,在实验中特别费时间,每一次迭代需要循环N次(N为batch_size的大小),因此需要消耗大量的时间去生成对抗样本。发现该算法在白盒以及黑盒上的攻击表现都稍微低于其他顶会的攻击算法。原创 2023-03-20 19:21:28 · 535 阅读 · 0 评论 -
对抗攻击与防御(2022年顶会顶刊AAAI、ACM、 ECCV、NIPS、ICLR、CVPR)adversarial attack and defense汇总
2022年 关于对抗攻击跟防御的全部顶会、顶刊论文原创 2023-03-19 02:49:13 · 4410 阅读 · 0 评论 -
ICLR 2020,Nesterov Accelerated Gradient and Scale Invariance for Adversarial Attacks
相应地,现有的工作在前者上主要是采用了动量(MI-FGSM),后者主要是模型增强(模型集成攻击)。提高模型泛化性可以分为两类:一是更好的。原创 2023-03-13 18:05:54 · 196 阅读 · 0 评论 -
adversarial example(对抗样本)最来的资料
对抗样本垃圾资料原创 2023-03-07 23:51:58 · 173 阅读 · 0 评论 -
对抗样本阅读论文
2023年读过的论文原创 2023-02-08 13:26:59 · 449 阅读 · 0 评论 -
李宏毅对抗攻击跟防御
所以就要能够对恶意攻击采取一定的防御措施。在人类恶意攻击的情况下,希望也能得到高的正确率。论文中一般用不同的优化方法,或者不同的限定。优化方法例如梯度上升来优化损失函数最大化。原创 2023-01-03 22:27:32 · 198 阅读 · 0 评论 -
深度学习对抗鲁棒性基础
深度学习鲁棒性综述了解原创 2023-01-02 15:04:51 · 176 阅读 · 0 评论 -
深度学习中范数的图像以及理解
参考文章原创 2022-12-27 22:47:11 · 610 阅读 · 0 评论 -
对抗样本改善图像分类性能
主要的问题在于对抗样本的分布和常规样本的分布是不一致的,这导致了简单的混合对抗样本和常规样本进行训练无法提升模型性能,甚至会降低模型性能。上述简单的训练策略在微调期可能会掩盖预训练网络从对抗样本中学习到的特征,所以作者提出了一种新的训练策略:将对抗样本和常规样本同时加入训练,并分别针对对抗样本和常规样本进行BN。但是,凡事有利有弊。经研究证实,对抗样本参与模型训练可以让模型学习到一些附加的特征,同时,可以让网络提取的特征更好的与样本的突出特征对齐,还可以提升模型对高频图像噪声的鲁棒性。转载 2022-12-15 08:59:43 · 295 阅读 · 0 评论 -
对抗样本入门_Note1
简介机器学习方法,如SVM,神经网络等,虽然在如图像分类等问题上已经outperform人类对同类问题的处理能力,但是也有其固有的缺陷,即我们的训练集喂的都是natural input,因此在正常情况下处理的比较好。然而如果我们想要对ML模型进行攻击的话,可以通过一定的手段生成对抗样本(adversarial examples),以图像为例,对抗样本在每个像素点只有微小的扰动(pertubations),因此对于人类的眼睛是无法分辨的,即生成前后我们人类还会将其归为同一类别。然而ML模型在面对这些对抗原创 2022-04-11 10:11:14 · 382 阅读 · 0 评论