pytorch训练模型大体流程

学习记录:

常用api:

#卷积层
conv2d = nn.Conv2d(in_channels,out_channels,kernel_size=3,stride=1,padding=1)
#输入通道数,输出通道数,卷积核大小,移动步长,补0大小

#批量归一化
bn = nn.BatchNorm2d(out_channels) #紧跟在卷积层后,参数为卷积层输出通道数

#激活层
relu = nn.ReLU(inplace=True)

#池化层
pool = nn.MaxPool2d(kernel_size=2,stride=2)

#反卷积层
deconv = nn.ConvTranspose2d(in_channels,out_channels,kernel_size=3,stride=2,padding=1)

训练大体流程

# -*- coding:utf-8 -*-
import torch
import torchvision
from torch import nn,optim
from torchvision import datasets
from torchvision import transforms
from torch.utils.data import DataLoader
from torch.nn import functional as F

#外部定义
criterion = nn.NLLLoss().cuda()
optimizer = optim.Adam(net.parameters(),lr=LR)
#训练过程
optimizer.zero_grad() # 梯度清0
out = net(imgData)
out = F.log_softmax(out,dim=1)
loss = criterion(out,imgLabel)
loss.backward()  #反向传播
optimizer.step() #更新梯度信息



 

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PyTorch是一种基于Python的深度学习框架,能够提供高效的张量操作和动态构建计算图的能力。下面是PyTorch训练模型和使用模型的原理流程: 1. 数据准备:首先需要准备好训练集和测试集,并对数据进行预处理,例如标准化、归一化等操作。 2. 模型定义:使用PyTorch定义模型,可以选择使用现成的预训练模型,也可以自己定义模型。 3. 损失函数定义:选择合适的损失函数,例如交叉熵损失函数、均方误差等。 4. 优化器定义:选择合适的优化器,例如Adam、SGD等,用于更新模型参数。 5. 训练模型:将数据输入模型,计算损失函数,并根据优化器对模型参数进行更新。 6. 模型评估:使用测试集评估模型性能,计算模型的准确率、精确率、召回率等指标。 7. 模型保存:将训练好的模型保存下来,以便后续使用。 8. 使用模型:使用保存的模型对新数据进行预测或分类。 在使用PyTorch进行深度学习任务时,通常需要使用以下几个库: - torch:PyTorch的核心库,提供张量操作等基础功能。 - torchvision:提供了一些常用的计算机视觉数据集和模型。 - torchtext:提供了一些常用的自然语言处理数据集和模型。 - torchsummary:提供了一个方便的方式来查看模型的结构和参数数量。 总之,PyTorch是一种灵活、易于使用和扩展的深度学习框架,可以帮助开发者快速构建、训练和部署深度学习模型
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值