pytorch版本的问题--实现Gradient Flipping梯度反转

  • 旧版
  • 定义一个类,然后用函数的方式去调用:
from torch.autograd import Function
class GradReverse(Function):
    def __init__(self, lambd):
        self.lambd = lambd

    def forward(self, x):
        return x.view_as(x)

    def backward(self, grad_output):
        return (grad_output * -self.lambd)


def grad_reverse(x, lambd=1.0):
    return GradReverse(lambd)(x)
  • 新版
class GradReverse(Function):

    # 重写父类方法的时候,最好添加默认参数,不然会有warning(为了好看。。)
    @ staticmethod
    def forward(ctx, x, lambd, **kwargs: None):
        # 其实就是传入dict{'lambd' = lambd} 
        ctx.lambd = lambd
        return x.view_as(x)

    @staticmethod
    def backward(ctx, *grad_output):
        # 传入的是tuple,我们只需要第一个
        return grad_output[0] * -ctx.lambd, None

    # 这样写是没有warning,看起来很舒服,但是显然是多此一举咯,所以也可以改写成
	@staticmethod
    def backward(ctx, grad_output):
        # 直接传入一格数
        return grad_output * -ctx.lambd, None

新旧区别:

(1)无需init,直接转成静态@staticmethod;
(2)在调用时,直接使用类名.apply使用;
(3)需要传参时: ctx.lambda = lambda 第一个参数必须是ctx

注意:
backward报错:Runtime Error: returned an incorrect number of gradients

分析:程序默认返回所有forward每一个输入参数的loss,现在我们并不需要给所有参数返回loss,只需要给input tensor返回就够了,其他的直接返回None

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值