梯度翻转层GRL

参考梯度翻转层GRL - 云+社区 - 腾讯云

编码器和领域分类器的训练目标是相反的,我们可以使用对抗网络(Adversarial Networks)的模式来进行训练。而另一种更加简单的方法就是梯度反转了。

梯度反转层

我们来看下图。模型的输入经过编码器得到特征向量,随后 被送到两个网络中:(1) 标记分类器和 (2) 领域分类器 。标记分类器输出数据标记 ,而领域分类器则预测特征向量的来源的领域

在上面,编码器 和领域分类器的训练目标是对抗的,因此文章在二者之间添加了一个梯度反转层(gradient reversal layer, GRL)。

众所周知,反向传播是指将损失(预测值和真实值的差距)逐层向后传递,然后每层网络都会根据传回来的误差计算梯度,进而更新本层网络的参数。而GRL所做的就是,就是将传到本层的误差乘以一个负数( ),这样就会使得GRL前后的网络其训练目标相反,以实现对抗的效果。

下面是在pytorch实现的代码。

class grl_func(torch.autograd.Function):
    def __init__(self):
        super(grl_func, self).__init__()

    @ staticmethod
    def forward(ctx, x, lambda_):
        ctx.save_for_backward(lambda_)
        return x.view_as(x)

    @ staticmethod
    def backward(ctx, grad_output):
        lambda_, = ctx.saved_variables
        grad_input = grad_output.clone()
        return - lambda_ * grad_input, None


class GRL(nn.Module):
    def __init__(self, lambda_=0.):
        super(GRL, self).__init__()
        self.lambda_ = torch.tensor(lambda_)

    def set_lambda(self, lambda_):
        self.lambda_ = torch.tensor(lambda_)

    def forward(self, x):
        return grl_func.apply(x, self.lambda_)

需要注意的是,并不是一个常数,而是由0变为1,即

                         

其中,是一个超参数,文章中设为10;随着训练的进行由0变为1,表示当前的训练步数/总的训练步数。上面的式子意味着一开始时,,领域分类损失不会回传到编码器网络中,只有领域分类器得到训练;随着训练的进行,逐渐增加,编码器得到训练,并开始逐步生成可以混淆领域分类器的特征。

  • 5
    点赞
  • 31
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Wanderer001

ROIAlign原理

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值