数据训练模型步骤:
1.准备数据集;
2.利用Dataloader来加载数据集
3.搭建神经网络(搭建神经网络可以单独设置一个.py文件,然后再引用)
4.创建网络模型
5.损失函数
6.优化器优化
7.设置训练网络的一些参数
记录训练的次数:
total_train_step=0
记录测试的次数;
total_test_step=0 训练的轮数: epoch=10
代码如下:
首先创建一个model.py文件,里面存放第3步骤
自己所搭建的神经网络
#搭建神经网络
import torch
from torch import nn
class Model(nn.Module):
def __init__(self):
super(Model, self).__init__()
self.model=nn.Sequential(
nn.Conv2d(3,32,5,1,2),
nn.MaxPool2d(2),
nn.Conv2d(32,32,5,1,2),
nn.MaxPool2d(2),
nn.Conv2d(32,64,5,1,2),
nn.MaxPool2d(2),
nn.Flatten(),
nn.Linear(64*4*4,64),
nn.Linear(64,10)
)
def forward(self,x):
x=self.model(x)
return x
再创建一个train.py文件,(ps:里面记得引用model.py)
代码如下:
import torch.optim
import torchvision
from model import *
#准备数据集
from torch import nn
from torch.utils.data import DataLoader
train_data=torchvision.datasets.CIFAR10(root="./dataset",train=True,transform=torchvision.transforms.ToTensor(),download=True)
test_data=torchvision.datasets.CIFAR10(root="./dataset",train=False,transform=torchvision.transforms.ToTensor(),download=True)
#length 长度
train_data_size=len(train_data)
test_data_size=len(test_data)
#如果train_data_size=10,训练数据集的长度为:10
print("训练数据集的长度为:{}".format(train_data_size))
print("训练测试集的长度为:{}".format(test_data_size))
#利用Dataloader来加载数据集
train_dataloader=DataLoader(train_data,batch_size=64)
test_dataloader=DataLoader(test_data,batch_size=64)
#~~~~~~~~~~~~#搭建神经网络
#创建网络模型
model=Model()
#损失函数
loss_fn=nn.CrossEntropyLoss()
#优化器优化
learning_rate=1e-2
optimizer=torch.optim.SGD(model.parameters(),lr=learning_rate)
#设置训练网络的一些参数
#记录训练的次数
total_train_step=0
#记录测试的次数
total_test_step=0
#训练的轮数
epoch=10
for i in range(epoch):
print("-------第{}轮训练开始------".format(i+1))
#训练步骤开始
for data in train_dataloader:
imgs,targets=data
outputs=model(imgs)
loss=loss_fn(outputs,targets)
#优化器优化模型
optimizer.zero_grad()
loss.backward()
optimizer.step()
total_train_step=total_train_step+1
print("训练次数:{},损失函数:{}".format(total_train_step,loss))
运行结果:因为运行次数太长了 所以我就截取了部分截图
分享自己的学习 ,大家共同进步