学习pytorch中的一些笔记(1)

本文介绍了PyTorch中torch.Size、add与add_的区别、torch.mul()与torch.mm()的不同以及torch.autograd.backward()的用法。通过实例展示了张量操作,并解释了反向传播过程中grad_tensors参数的含义。
摘要由CSDN通过智能技术生成

学习pytorch中的一些笔记(1)

一、torch.Size

torch.Size() 查看当前Tensor的大小,即维度。
查看Tensor维度
在官方教程还有一句话,我觉得可能有用:
torch.Size是给元组
torch.Size是个元组,元组的操作都可以用

len(torch.Size([5,3]))

输出:
2

torch.Size([5,3])[0]
torch.Size([5,3])[1]
输出:
5
3

torch.Size([5,3])+torch.Size([5,4])
输出:
torch.Size([5, 3, 5, 4])

二、add与add_的区别(下划线的作用)

实现加法的方法有:
1:x+y,(x和y要为同纬度)
2:torch.add(x,y) 也可以定义一个新的张量,将结果存进去torch.add(x,y,out=result)
3.y.add(x)或者y.add_(x)
y.add(x)与y.add_(x)的区别在于:
在加了_之后,y.add_(x)执行完之后y的值会变化为结果,不加_,y不会变.
看官方文档描述:
_的描述
如文档所说,其他运算加_也是如此。
代码测试如下:

x = torch.rand(5,3)
y = x

print(y.add(x))
print(y)
print(y.add_(x))
print(y)

输出:
tensor([[1.9755, 1.0825, 1.8444],
        [0.8396, 0.60
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值