[论文理解]光滑对抗性训练Smooth Adversarial Training

该论文提出了一种平滑对抗性训练方法(SAT),使用平滑激活函数(如Parametric Softplus)替代ReLU,以增强神经网络在对抗性样本上的鲁棒性,同时保持准确性。通过实验表明,这种方法在不增加计算成本的情况下提高了网络的防御能力,但论文未深入解释其工作原理。
摘要由CSDN通过智能技术生成

在这里插入图片描述

1.几个问题

1.1 基本信息

arVix 2020

1.2 做了什么

提出了平滑对抗性训练(standard adversarial traning, SAT)

1.3 实现方法

我们用SAT的平滑近似(一阶导数平滑)代替ReLU,由于平滑激活函数的允许鉴别器在对抗性训练中找到更难的对抗性示例,因此能计算出更好的梯度更新。

1.4 创新性

在没有额外计算开支和精度下降的情况下增强了对抗网络的鲁棒性。方法简单,效果还可以。只是论文中没有仔细阐释why it works.

2.数学部分 & 模型构建

2.1 常识:什么是对抗性训练

卷积神经网络很容易受到对抗例子的攻击,这些例子是通过在干净的输入中加入小扰动来计算的。对抗性训练是提高网络抵御攻击能力最有效的方法之一。之前的对抗性训练方法多多少少会损失对正确输入识别的准确率。人们普遍认为,在计算量一定的情况下,鲁棒性和准确度是互相矛盾的目标。

2.2 对抗性训练的目标

在这里插入图片描述
其中 D D D是潜在的数据分布, L L L是损失函数, θ \theta θ是网络参数, x x x是带有真实标签 y y y的数据, ε \varepsilon

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值