DAG的algorithm

这篇博客介绍了DAG模型,专用于在目标检测中生成对抗样本,针对FasterRCNN等二阶段检测模型设计,通过扰动图片使所有预测失效。研究了如何通过最小化错误分类概率来生成adversarial perturbation。
摘要由CSDN通过智能技术生成

DAG是一个使用在目标检测场景下的对抗样本生成模型

应该是第一个应用在目标检测场景下的

这部分的算法设计主要是对应了Faster RCNN这种二阶段检测模型

输入:

其中 target set 是一张图片中所有的预测。

在网络训练的过程中,这些预测都会被唯一分配一个ground truth label。

这些正确的ground truth label组成了original label set。

adversarial label setoriginal label set有一种关系,即adversarial label set中的每一个样本都是从那些不正确的类别中随机采样出来的。

输出:

        我们的训练目标是得到一种对抗扰动,adversarial perturbation, 让一张图片中的所有预测都变的错误,用公式表示为

        其中f是一个分类器,这个分类器的输入是原图X经过扰动r之后的图片,这个分类器的输出是目标为tn时,输出一组分类置信度分数,ln是原本正确的标签。 

训练:

        对于一张图片X中的所有target,我们首先找到那些分类正确的目标,组成active target set,然后我们根据设计的损失函数计算这些样本的梯度和,损失函数的设计

         在最小化这个损失函数的过程中,换句话说,就是在最小化分类器把target tn正确分类为original label ln的概率,也就是最小化括号中的第一项。同时,也在最大化分类器把target tn错误分类为adversarial target ln'的概率,也就是最大化括号中的第二项。

        我们求出这个损失函数的负梯度,将之赋值给rm

        为了避免数值不稳定,会对这个rm进行标准化,得到rm‘

        把这个rm'累加到之前的r上(方便不断的标准化)

        然后把这个扰动加到输入图片X上

        

        

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值