由于隐写分析的深度学习技术已经超越了传统的两阶段方法,已经提出了几种 CNN 架构来解决隐写分析这一任务,提高了隐写图像的检测精度。改进点多种多样,但尚不清楚哪些计算元素是相关的。对此,篇一提出了一种在训练期间提高准确性、收敛性和稳定性的策略。该策略涉及包含 Spatial Rich Modelsfilters、Spatial Dropout、Absolute Value layer 和 Batch Normalization 的预处理阶段。使用该策略提高了三个隐写分析 CNN 和两个图像分类 CNN 的性能,准确率有所提升,同时将训练时间减少到不到 6 小时,并提高了网络的稳定性。
使用模型:隐写分析模型Xu-Net、Ye-Net、Yedroudj-Net。图像分类模型:VGG16 、 VGG19
改进策略:
1、输入图像大小调整为 256 × 256
2、所有 SRM 滤波器都通过卷积应用于预处理块,然后是3 × TanH 激活,修改后的 TanH,范围为 (-3,3)。
3、从第二个开始的卷积块中应用空间丢失。
4、卷积块中的激活使用 Leaky ReLU。
5、在卷积块中激活后添加绝对层 (ABS)。
6、卷积块中绝对层之后的批量归一化层 (BN)
7、在第一个和最后一个 BN 之后,最后一层的连接层有三重输入。
8、分类阶段,如图 所示,由三个全连接层(分别为 128、64 和 32 个单元)组成,具有 Leaky ReLU 激活和 Softmax 激活功能。该阶段位于全局平均池化层之后,在所有架构中都是相同的。
9、优化器使用随机梯度下降。