Adversarial Attacks on Deep-learning-based Radar Range Profifile Target Recognition

摘要:基于HRRP的目标识别一直是雷达信号口译领域的研究热点。深度学习是HRRP目标识别的重要方法。然而,最近的研究表明,基于深度学习的光学图像目标识别方法容易受到敌对样本的攻击。基于深度学习的HRRP目标识别方法能否受到攻击仍是一个有待解决的问题。本文提出了四种产生对抗性扰动的方法。**算法1基于二进制搜索方法生成非定向目标的细粒度扰动。算法2基于多重迭代的方法生成定向目标的细粒度扰动。算法3基于聚合一些细粒度的扰动,生成了非定向目标的通用对抗性扰动(UAP)。算法4基于缩放一个细粒度扰动生成定向目标通用扰动。利用这些扰动用于生成对抗样本,攻击基于白盒和黑盒攻击深度学习的HRRP目标识别方法。**利用实际雷达数据进行了实验,表明HRRP对抗样本具有一定的攻击性。因此,基于深度学习的HRRP目标识别方法在安全领域具有潜在的潜力。

Motivation:传统的非机器学习算法从不同的角度提取HRRP特征,并取得了一定的成功。然而,它们过度依赖于专家的先验知识,难以进一步提高识别性能。与传统的目标识别算法相比,基于深度学习的HRRP目标识别方法在自动特征学习方面具有优势。它能有效地提高目标识别率,已成为雷达目标识别的一种重要方法。

虽然深度学习方法解决了一些现有技术无法解决的问题,大大提高了目标识别[8]的准确性,但SzegedyC等人在2014年首次发现了一种异常现象。攻击者可以人为地设计一个输入样本来干扰视觉上难以察觉的信息注入。他们可以根据攻击者想要的结果输出的任意错误结果,建立目标识别系统。这些具有攻击性的输入样本被称为对抗性样本。这些样本不仅可以攻击特定的深度学习方法,而且还具有显著的可转移特性。这一发现引起了广泛的关注和研究。生成对抗性样本的方法已经不断地得到了改进。

现有的攻击算法解决方案也有一定的局限性。例如,虽然C&W攻击[12]算法产生很小的扰动,但计算速度很慢。虽然FGSM算法有很高的计算效率,它的手动设置的比例因子将导致产生的扰动的精度较低。虽然DeepFool算法解决了FGSM算法中的比例因子选择问题,是一种更自适应的攻击方法,但它只执行非目标攻击。针对这些局限性,本文从数字处理的角度提出了四种产生对抗性扰动的方法(摘要)。

本文的贡献

  • 我们分别基于二值搜索算法和多重迭代方法生成了非目标的和有目标的细粒度的对抗性扰动。
  • 我们分别基于聚合方法和缩放方法生成非目标和目标UAPs(universal adversarial perturbation)
  • 我们验证了UAP具有可转移性和泛化能力
  • 我们验证了对抗性扰动对HRRP数据比随机噪声更具有攻击性。

本文提出的算法基于FGSM方法进行优化:

非目标攻击和目标攻击对抗样本的表达式如(5)和(6):

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-hxNpW6gt-1649311032447)(D:\坚果云\我的坚果云\论文笔记\论文笔记\Adversarial attacks on deep-learning-based radar range profile target recognition\1.jpg)]

在上述产生对抗性扰动的方法中,虽然FGSM算法是有效的,但仍存在一些缺点:

  • 首先,尺度因子ε是控制敌对样本扰动强度的一个重要参数。然而,FGSM算法是手动设置的,具有很强的主观盲目性。这使得增加的扰动值区域与附近的区域明显不同,导致生成的对抗性样本很容易被检测到。本文将由FGSM算法直接产生的扰动称为粗粒度扰动,并将其与本文提出的细粒度扰动进行了比较。
  • 其次,对抗性样本扰动的泛化能力较差。由于FGSM算法只能生成特定输入样本的特定扰动,因此注入这些扰动的其他对抗性样本就变得不那么激进了。

Proposed method

  • 非定向目标的细粒度扰动

    ε是FGSM中的那个超参数,在该算法中是根据经验手动设定的,这里的二分和我们查找算法中的二分一个思想, εmax和 εmin是自己设定的该值的最大最小值,然后 εacc是精度,即最大最小值的差值,该值越小循环次数越多。当模型预测结果仍然是ground truth,就让ε大点,当二者不相等时,就小点,这样就实现动态调整,更快收敛。达到预期的结果。
    在这里插入图片描述

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-qbWoByDF-1649311032461)(D:\坚果云\我的坚果云\论文笔记\论文笔记\Adversarial attacks on deep-learning-based radar range profile target recognition\3.jpg)]

  • 定向目标的细粒度扰动

    个人观点,我觉得这个算法和FGSM没什么区别。

在这里插入图片描述
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ij2sFFp2-1649311032468)(D:\坚果云\我的坚果云\论文笔记\论文笔记\Adversarial attacks on deep-learning-based radar range profile target recognition\5.png)]

  • 非定向目标的通用对抗性扰动

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-4irs4AlE-1649311032470)(D:\坚果云\我的坚果云\论文笔记\论文笔记\Adversarial attacks on deep-learning-based radar range profile target recognition\6.jpg)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ssYVHxlM-1649311032471)(D:\坚果云\我的坚果云\论文笔记\论文笔记\Adversarial attacks on deep-learning-based radar range profile target recognition\7.jpg)]

  • 定向目标的通用对抗性扰动

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-o2ayQLg4-1649311032472)(D:\坚果云\我的坚果云\论文笔记\论文笔记\Adversarial attacks on deep-learning-based radar range profile target recognition\8.jpg)]

experiments:

进行了三种类型的实验。

  • 首先,进行白盒攻击。白盒攻击是指攻击者在掌握了模型的结构和参数后再攻击模型。该实验攻击的是MLP模型。
  • 第二,进行了黑盒攻击。黑盒攻击是指攻击者在不需要知道模型的结构或训练参数的情况下攻击模型。攻击CNN模型。
  • 最后,我们比较了对抗性样本扰动和随机噪声的攻击性。攻击的是MLP模型

两个模型结构:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-t3UWELxY-1649311032474)(D:\坚果云\我的坚果云\论文笔记\论文笔记\Adversarial attacks on deep-learning-based radar range profile target recognition\9.jpg)]

白盒

  • 非目标攻击

    验证细粒度:

    第一个图说明本文的算法1不受scale factor影响,误分率一直都比FGSM高。第二个图说明本文生成的扰动更小(a是FGSM,b是算法1)。

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-pLsC4BBX-1649311032475)(D:\坚果云\我的坚果云\论文笔记\论文笔记\Adversarial attacks on deep-learning-based radar range profile target recognition\10.jpg)]

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-c9CmYAf3-1649311032476)(D:\坚果云\我的坚果云\论文笔记\论文笔记\Adversarial attacks on deep-learning-based radar range profile target recognition\11.jpg)]

    验证通用对抗扰动:

    实验用本文的算法3不同数量的样本生成对抗样本,验证误分率,从结果看使用10个样本以上误分率趋于稳定。证明了对抗样本是普遍存在的,扰动对整个训练集具有泛化能力。

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-khxRf3IM-1649311032477)(D:\坚果云\我的坚果云\论文笔记\论文笔记\Adversarial attacks on deep-learning-based radar range profile target recognition\12.jpg)]

  • 目标攻击

    验证细粒度:

    做了不同尺度因子的实验,很明显尺度因子越大收敛更快,迭代次数越少。同时和非目标攻击一样和FGSM对比了一下,扰动同样比FGSM小(没贴图)。

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-iCo18ODP-1649311032478)(D:\坚果云\我的坚果云\论文笔记\论文笔记\Adversarial attacks on deep-learning-based radar range profile target recognition\13.jpg)]

    验证通用对抗扰动

    在这里插入图片描述

黑盒:

为了验证UAP的攻击性和泛化能力,设计了一个黑盒攻击实验。训练后的MLP模型用于生成非目标和目标对抗性样本。然后用利用MLP生成的对抗样本利用对抗性样本来攻击CNN模型。

  • 非目标攻击

    文中对比了白盒和黑盒随着PSR的增大的识别准确率。(PSR以dB为单位,为干扰和信号的强度之比,然后取对数乘10换算成dB,-10dB时二者之比为1:10)。结果表明,UAP对白盒模型和黑盒模型的攻击效应均随着PSR的增加而增大。因此,本实验表明,UAP对白盒模型和黑盒模型都具有侵袭性。这种特性被称为UAP的可转移性。同时,结果表明,UAP可以对不同的数据集产生攻击性的对抗性样本,其攻击性随着PSR的增加而增加。因此,该UAP可以对不同的数据集产生类似的攻击效果。这种特性被称为UAP的泛化能力

    该实验验证了对于非目标攻击,UAP具有对黑盒模型的可转移性和对不同数据集的泛化能力。

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-5oTIE4sN-1649311032481)(D:\坚果云\我的坚果云\论文笔记\论文笔记\Adversarial attacks on deep-learning-based radar range profile target recognition\15.jpg)]

  • 目标攻击

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-8Lubg1v9-1649311032483)(D:\坚果云\我的坚果云\论文笔记\论文笔记\Adversarial attacks on deep-learning-based radar range profile target recognition\16.jpg)]

噪声扰动与对抗样本的比较

Adversarial attacks are a major concern in the field of deep learning as they can cause misclassification and undermine the reliability of deep learning models. In recent years, researchers have proposed several techniques to improve the robustness of deep learning models against adversarial attacks. Here are some of the approaches: 1. Adversarial training: This involves generating adversarial examples during training and using them to augment the training data. This helps the model learn to be more robust to adversarial attacks. 2. Defensive distillation: This is a technique that involves training a second model to mimic the behavior of the original model. The second model is then used to make predictions, making it more difficult for an adversary to generate adversarial examples that can fool the model. 3. Feature squeezing: This involves converting the input data to a lower dimensionality, making it more difficult for an adversary to generate adversarial examples. 4. Gradient masking: This involves adding noise to the gradients during training to prevent an adversary from estimating the gradients accurately and generating adversarial examples. 5. Adversarial detection: This involves training a separate model to detect adversarial examples and reject them before they can be used to fool the main model. 6. Model compression: This involves reducing the complexity of the model, making it more difficult for an adversary to generate adversarial examples. In conclusion, improving the robustness of deep learning models against adversarial attacks is an active area of research. Researchers are continually developing new techniques and approaches to make deep learning models more resistant to adversarial attacks.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值