对抗训练:对抗训练中的过拟合现象和对抗训练技巧总结

本文探讨了对抗训练中过拟合的问题,即训练集对抗鲁棒性提高但测试集下降。提出了早期停止、数据增广、模型集成和参数平均等解决方案。研究表明,模型集成和参数平均能提升对抗鲁棒性,而特定类型的数据增广如CutMix配合参数平均可有效防止过拟合。此外,对抗训练的技巧包括BN模式、权重衰减和激活函数的选择也是关键因素。
摘要由CSDN通过智能技术生成

什么是对抗训练中的过拟合?


既在训练集上做对抗训练的过程中,训练集的对抗鲁棒性仍在上升,测试集的对抗鲁棒性却下降了。同时两者的分类精度也在持续上升。
常用的解决方案有early stopping,添加额外数据训练(有标签,或者无标签)。

模型集成与参数平均

在这里插入图片描述
上图a中现实的就是在使用额外数据时对测试集对抗样本准确度的变化。有研究发现在对任意两次训练得到的模型进行集成,得到的集成模型有更好的对抗鲁棒性。自然的,半监督学习中常用的模型参数动量更新的方式也可以考虑成不同epoch模型的集成。下图中展示了不同轮次训练的模型的对测试集中样本的对抗鲁棒性,可以看到有明显互补的效果。
上图b中展示了使用模型参数动量更新后对只使用正常训练数据的模型有缓解过拟合的效果;图c中显示了对使用额外数据的模型有boosting的效果。
在这里插入图片描述

对抗训练中的数据增广

在这里插入图片描述
之前也有研究想

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值