torch 中的detach、numel、retain_graph、repeat、repeat_interleave等参数的用法

69 篇文章 8 订阅

detach

官网解释:

在这里插入图片描述

实验结论

在这里插入图片描述

import torch
x = torch.arange(4.0)
x.requires_grad_(True)  # 等价于 `x = torch.arange(4.0, requires_grad=True)`
y = x * x
# detach作用是:将u作为常数处理。即将y.detach的返回值作为常数而不再是关于x的函数
u = y.detach()
z = u * x
z.sum().backward()  # 为啥不直接求导原因是在机器学习或深度学习中一般不用向量(矩阵)求导,
# 而是用标量求导,所以就先求和在求导 
# backward 是计算梯度并存入x.grad中
print(x.grad == u)
x.grad中保存的是求导结果

输出结果:

tensor([True, True, True, True])

numel的用法

在这里插入图片描述

retain_graph

每次 backward() 时,默认会把整个计算图free掉。一般情况下是每次迭代,只需一次 forward() 和一次 backward() ,前向运算forward() 和反向传播backward()是成对存在的,一般一次backward()也是够用的,但是不排除,由于自定义loss等的复杂性,需要一次forward(),多个不同loss的backward()来累积同一个网络的grad,来更新参数。于是,若在当前backward()后,不执行forward() 而是执行另一个backward(),需要在当前backward()时,指定保留计算图,backward(retain_graph=true)

repeat

在这里插入图片描述
在这里插入图片描述

repeat_interleave

在这里插入图片描述

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值