PyTorch学习笔记(4)——常用方法和细节

参考:

方法功能 / 注意事项
id()可以打印变量的内存地址
y = x直接赋值,两个变量共享内存
torch.full((3, 2), 2)tensor([[2, 2], [2, 2], [2, 2]])
torch.arange(1, 10, 1)tensor([1, 2, 3, 4, 5, 6, 7, 8, 9])
torch.linspace(1, 10, 10)tensor([ 1., 2., 3., 4., 5., 6., 7., 8., 9., 10.])
torch.normal(0, 1, size=(1, 3))# 正态分布 tensor([[ 0.3916, -0.0035, 0.6998]])
torch.cat([a, a], dim=1)# 在某个维度进行拼接,维度不扩充 dim=1: [a.size(0), a.size(1) + a.size(1), a.size(2), …]
torch.stack([a, a], dim=1)# 在某个维度进行拼接,维度扩充 dim=1: [a.size(0), 2, a.size(1), a.size(2), …]
torch.split(d, split_size_or_sections=[1, 2, 1], dim=1)# 用列表来指定切分的长度 dim=1分别切分为1, 2, 1
mask = tensor([False, True, True, False]), d[:, mask, :]通过mask来进行切片
b.reshape(-1, 1), b.view(-1, 1)[b.size(0)*b.size(1)…, 1]
d.transpose(1, 0)# 维度交换 [d.size(1), d.size(0), d.size(2), …]
d.squeeze(dim=1)# 压缩 如果dim=1的维度为1,则[d.size(0), d.size(2), …]
d.unsqueeze(dim=1)# 拓展 [d.size(0), 1, d.size(1), d.size(2), …]
torch.matmul(x, y)矩阵乘法
torch.mul(y, z) , y * z矩阵点乘
torch.rand((1, 1), requires_grad=True)需要计算梯度,tensor默认不计算梯度
with torch.no_grad():可以执行计算,但该计算不会在反向传播中被记录。
w.gradtensor的梯度
w.grad.zero_()梯度清零 tensor([[0.]])
x.retain_grad()# 非叶子节点保留梯度,默认清除
w -= x, w.sub_(x)in-place原地操作,地址不变
optimizer.zero_grad()梯度清零
loss.backward()autograd自动求导计算梯度
optimizer.step()反向传播更新参数
out.gt(0.5)返回bool,指示每一位是否>0.5
Pytorch是机器学习中的一个重要框架,它与TensorFlow一起被认为是机器学习的两大框架。Pytorch学习可以从以下几个方面入手: 1. Pytorch基本语法:了解Pytorch的基本语法和操作,包括张量(Tensors)的创建、导入torch库、基本运算等\[2\]。 2. Pytorch中的autograd:了解autograd的概念和使用方法,它是Pytorch中用于自动计算梯度的工具,可以方便地进行反向传播\[2\]。 3. 使用Pytorch构建一个神经网络:学习使用torch.nn库构建神经网络的典型流程,包括定义网络结构、损失函数、反向传播和更新网络参数等\[2\]。 4. 使用Pytorch构建一个分类器:了解如何使用Pytorch构建一个分类器,包括任务和数据介绍、训练分类器的步骤以及在GPU上进行训练等\[2\]。 5. Pytorch的安装:可以通过pip命令安装Pytorch,具体命令为"pip install torch torchvision torchaudio",这样就可以在Python环境中使用Pytorch了\[3\]。 以上是一些关于Pytorch学习笔记,希望对你有帮助。如果你需要更详细的学习资料,可以参考引用\[1\]中提到的网上帖子,或者查阅Pytorch官方文档。 #### 引用[.reference_title] - *1* [pytorch自学笔记](https://blog.csdn.net/qq_41597915/article/details/123415393)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [Pytorch学习笔记](https://blog.csdn.net/pizm123/article/details/126748381)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值