![](https://img-blog.csdnimg.cn/bf21a4ff4c114623b7cbdc068871024d.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
Pytorch
文章平均质量分 76
无
Cheeryang_ego
没有白走的路
展开
-
训练五步走:前向传播、计算损失、清零梯度optimizer.zero_grad()、反向传播loss.backward()、更新参数optimizer.step()
outputs = model(inputs)前向传播,model为实例化后的模型;loss = criterion(outputs, targets)计算损失,criterion为定义的损失函数;Pytorch自动求导机制会将梯度值累加,故要optimizer.zero_grad()清零,去掉以前的梯度值;loss.backward()反向传播,通过自动微分计算损失函数相对于模型参数的梯度;optimizer.step()根据计算出的梯度更新模型的参数。原创 2024-06-29 23:08:01 · 499 阅读 · 0 评论 -
Pytorch中的 .detach().cpu().numpy()
detach() 用于从计算图中分离出一个张量,即返回一个新的张量,与原张量共享相同的数据,但不会再计算梯度;cpu() 将张量移动到CPU内存中,因为numpy仅能处理CPU内存中的数据,不能直接处理GPU上的数据;numpy() 将Pytorch张量转换为numpy数组,共享内存,不会复制数据;总结:.detach().cpu().numpy() 是一个常见的链式方法调用,用于将一个在计算图中(即由autograd跟踪的)张量转换为numpy数组原创 2024-06-24 23:28:57 · 383 阅读 · 0 评论 -
Pytorch中的数据与优化器:Dataset、TensorDataset、DataLoader、optimizer.param_groups
torch.utils.data.Dataset、torch.utils.data.TensorDataset、torch.utils.data.DataLoader、optimizer.param_groups原创 2024-06-22 17:19:56 · 1019 阅读 · 0 评论 -
安装cuda、cudnn、Pytorch(用cuda和cudnn加速计算)
安装cuda、cudnn、Pytorch步骤原创 2024-06-20 01:32:07 · 1120 阅读 · 0 评论 -
【刘二大人 - PyTorch深度学习实践】学习随手记(二)
10-11集(CNN)内容:卷积神经网络(基础篇、高级篇)原创 2022-03-03 23:58:52 · 1230 阅读 · 1 评论 -
【刘二大人 - PyTorch深度学习实践】学习随手记(一)
前9集内容:Overview、线性模型、梯度下降算法、反向传播、用PyTorch实现线性回归、逻辑斯蒂回归、处理多维特征的输入、加载数据集、多分类问题原创 2022-02-26 23:11:31 · 2229 阅读 · 4 评论 -
【我是土堆 - PyTorch教程】学习随手记(已更新 | 已完结 | 10w字超详细版)
土堆Pytorch教程笔记原创 2022-02-13 23:25:55 · 22942 阅读 · 40 评论