2018 code
是否可以改进攻击以破坏新防御的有效性
针对 WTF-PAD 和 Walkie-Talkie
深度学习
堆叠去噪自动编码器(SDAE)
一个简单的三层神经网络,包括输入、隐藏和输出层。向输入添加噪声,然后重建原始值。
卷积神经网络(CNN)
两个主要部分:特征提取和分类
在特征提取中,输入首先被送入一个卷积层,该层由一组滤波器组成。输入的每个区域与每个滤波器进行卷积,主要是通过取两个向量的点积,得到一组中间值。这些值被输入激活函数--这类似于神经元根据过滤后的输入是否具有某些特征而被激活。拥有更多的滤波器意味着能从输入中提取更多的特征。然后,激活函数的输出被送入池化层。池化层逐步缩小特征图的空间大小,以减少参数数量和计算量。池化中最常用的方法是最大池化,即在特征图的特定区域内选择空间邻域中的最大值作为数据的表示。这种方法的优势在于,由于每个邻域中的最大信号都会被保留,因此不会受到输入中的微小变换、失真和平移的影响。特征提取组件的最后一部分主要由随机剔除函数和批量归一化组成,有助于提高分类器性能并防止过拟合。
然后,CNN 将卷积层和池化层的输出(代表输入的高级特征)传递到分类组件。在该组件中,一组全连接层利用这些特征对输入进行分类。在训练过程中,分类的损失值不仅用于更新分类组件中的权重,还用于更新特征提取中使用的过滤器。为了估计损失值,我们使用了分类交叉熵,它适用于 WF 等多类分类问题。
数据收集
实验评估
与AWF的差异
- 卷积层数目增多
- 过拟合不采用dropout而是采用最新过拟合争夺机制,包括在每个卷积层之后添加的批处理归一化(BN)层和激活函数之后的dropout层
- AWF超参数值固定,而DF改变不同层的超参数值
- 激活功能。AWF只是用ReLU激活函数,但ReLU将所有负值映射为零;DF模型中用到ELU,可以学习包含负值的数据
- 全连接层。AWF中直接将最后一个最大池化层链接到预测层,而DF中添加了两个结合BN和dropout的FC层,全连接(FC)层在分类提取中很重要,以防止FC层中通常发生的过拟合。