论文下载:IEEE Xplore Full-Text PDF:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=9520398
或者(免费):
https://download.csdn.net/download/qq_20481015/25641401
摘要:
近年来,基于深度学习(DL)的自动调制分类(AMC)方法得到了快速发展,其性能优于传统的分类方法。为了干扰的基于深度学习的AMC分类器,在本文中,我们提出了一种对抗性攻击方法来生成伪信号,以欺骗基于DL的分类器。首先,定义了视觉差异性和伪信号可恢复性的约束条件。其次,提出了少量数据点攻击器(FDPA),并通过差分进化算法生成含有少量扰动数据点的伪信号。在公共数据集RML 2016上的大量实验结果表明,FDPA产生的伪信号可以显著降低三种基于DL的AMC分类器的准确度:基于卷积神经网络(CNN)的分类器、基于长-短期记忆递归神经网络(LSTM-RNN)的分类器以及CNN和LSTM-RNN相结合的分类器。代码将可用。
论文通过对信号的少量数据点(甚至一个点)的值进行极小的扰动,生成欺骗AMC分类器的伪信号。