P27 完整的模型训练套路(一)

以CIFAR10数据集为例子。

长个知识:
字符串格式化

print("训练数据集的长度为{}:".format(train_data_size))

{}会被.format里面的东西替换掉

一、准备数据集

#准备数据集
train_data=torchvision.datasets.CIFAR10("./P27_datasets",train=True,
                                        transform=torchvision.transforms.ToTensor(),
                                        download=True)

test_data=torchvision.datasets.CIFAR10("./P27_datasets",train=False,
                                       transform=torchvision.transforms.ToTensor(),
                                       download=True)

二、获取数据集的长度

#获取数据集的长度
train_data_size=len(train_data)
test_data_size=len(test_data)
#如果train_dataset_size=10  输出为
#训练数据集的长度为:10
print("训练数据集的长度为{}:".format(train_data_size))
print("测试数据集的长度为{}:".format(test_data_size))

也可以是

也可以是print(f'训练数据集的长度为{train_data_size}张')
	   print(f'测试数据集的长度为{test_data_size}张')

三、加载数据集(dataloader)

#加载数据集
from torch.utils.data import DataLoader
train_dataloader=DataLoader(train_data,batch_size=64)
test_dataloader=DataLoader(test_data,batch_size=64)

四、创建神经网络:

在这里插入图片描述

#搭建神经网络
#依据第一次搭建的图
from torch import nn
class Tudui(nn.Module):
    def __init__(self):
        super(Tudui, self).__init__()
        self.model=nn.Sequential(
            nn.Conv2d(3,32,kernel_size=5,stride=1,padding=2),
            nn.MaxPool2d(2),
            nn.Conv2d(32,32,5,1,2),
            nn.MaxPool2d(2),
            nn.Conv2d(32,64,5,1,2),
            nn.MaxPool2d(2),
            nn.Flatten(),
            nn.Linear(64*4*4,64),
            nn.Linear(64,10)
        )
    def forward(self,x):
        x=self.model(x)
        return x

为了显得专业,我们可以把神经网络单独写进一个py文件里。
然后调用他
新建一个py文件
在这里插入图片描述

from torch import  nn
import torch

class Tudui(nn.Module):
    def __init__(self):
        super(Tudui, self).__init__()
        self.model=nn.Sequential(
            nn.Conv2d(3,32,kernel_size=5,stride=1,padding=2),
            nn.MaxPool2d(2),
            nn.Conv2d(32,32,5,1,2),
            nn.MaxPool2d(2),
            nn.Conv2d(32,64,5,1,2),
            nn.MaxPool2d(2),
            nn.Flatten(),
            nn.Linear(64*4*4,64),
            nn.Linear(64,10)
        )
    def forward(self,x):
        x=self.model(x)
        return x

if __name__=='__main__':
    tudui=Tudui()
    input=torch.ones((64,3,32,32))
    output=tudui(input)
    print(output.shape)

为了验证我们网络的正确性,新建一个input变量,全是1。
在这里插入图片描述
点此处运行
结果:

torch.Size([64, 10])
//最终返回了64行  代表输入的batchsize=64张图片
10列   代表每张图片对应每一类的神经网络模型输出值,因为还没归一化等操作
输出的并非概率!

五、导入自己的神经网络:

在这里插入图片描述
mark down dir as
标记目录为根源就好了
在这里插入图片描述

import torch
import torchvision
from torch.utils.data import DataLoader
from P27_neutral_net_model import *
#准备数据集


train_data=torchvision.datasets.CIFAR10("./P27_datasets",train=True,
                                        transform=torchvision.transforms.ToTensor(),
                                        download=True)

test_data=torchvision.datasets.CIFAR10("./P27_datasets",train=False,
                                       transform=torchvision.transforms.ToTensor(),
                                       download=True)
#获取数据集的长度
train_data_size=len(train_data)
test_data_size=len(test_data)
#如果train_dataset_size=10  输出为
#训练数据集的长度为:10
print("训练数据集的长度为{}:".format(train_data_size))
print("测试数据集的长度为{}:".format(test_data_size))

#加载数据集
train_dataloader=DataLoader(train_data,batch_size=64)
test_dataloader=DataLoader(test_data,batch_size=64)

#搭建神经网络
#依据第一次搭建的图
# class Tudui(nn.Module):
#     def __init__(self):
#         super(Tudui, self).__init__()
#         self.model=nn.Sequential(
#             nn.Conv2d(3,32,kernel_size=5,stride=1,padding=2),
#             nn.MaxPool2d(2),
#             nn.Conv2d(32,32,5,1,2),
#             nn.MaxPool2d(2),
#             nn.Conv2d(32,64,5,1,2),
#             nn.MaxPool2d(2),
#             nn.Flatten(),
#             nn.Linear(64*4*4,64),
#             nn.Linear(64,10)
#         )
#     def forward(self,x):
#         x=self.model(x)
#         return x
#这里注释掉是想引入自己的写的py文件

#创建网络:
tudui=Tudui()

六、创建损失函数,用交叉熵来:

#创建损失函数、
from torch import nn
loss_fn=nn.CrossEntropyLoss()

七、创建优化器(用SGD随机梯度下降):

#创建优化器
learning_rate=0.001
或者写成科学计数法
learning_rate=1e-2

optimizer=torch.optim.SGD(tudui.parameters(),lr=learning_rate)

八、训练模型初步:

#设置训练网络的一些参数:
#记录训练记录
total_train_step=0

#记录测试的次数
toatl_test_step=0

#训练的轮数
epoch=10

for i in range(epoch):
    print("--------第{}轮训练开始-----".format(i+1))

    #训练开始
    for data in train_dataloader:
        imgs,targets=data
        outputs=tudui(imgs)
        loss=loss_fn(outputs,targets)
        # 优化器优化模型
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()
        #记录训练次数
        total_train_step=total_train_step+1
        print("训练次数:{},Loss:{}".format(total_train_step,loss))

全部代码:

import torch
import torchvision
from torch.utils.data import DataLoader
from P27_neutral_net_model import *
from torch import nn

#准备数据集


train_data=torchvision.datasets.CIFAR10("./P27_datasets",train=True,
                                        transform=torchvision.transforms.ToTensor(),
                                        download=True)

test_data=torchvision.datasets.CIFAR10("./P27_datasets",train=False,
                                       transform=torchvision.transforms.ToTensor(),
                                       download=True)
#获取数据集的长度
train_data_size=len(train_data)
test_data_size=len(test_data)
#如果train_dataset_size=10  输出为
#训练数据集的长度为:10
print("训练数据集的长度为{}:".format(train_data_size))
print("测试数据集的长度为{}:".format(test_data_size))

#加载数据集
train_dataloader=DataLoader(train_data,batch_size=64)
test_dataloader=DataLoader(test_data,batch_size=64)

#搭建神经网络
#依据第一次搭建的图
# class Tudui(nn.Module):
#     def __init__(self):
#         super(Tudui, self).__init__()
#         self.model=nn.Sequential(
#             nn.Conv2d(3,32,kernel_size=5,stride=1,padding=2),
#             nn.MaxPool2d(2),
#             nn.Conv2d(32,32,5,1,2),
#             nn.MaxPool2d(2),
#             nn.Conv2d(32,64,5,1,2),
#             nn.MaxPool2d(2),
#             nn.Flatten(),
#             nn.Linear(64*4*4,64),
#             nn.Linear(64,10)
#         )
#     def forward(self,x):
#         x=self.model(x)
#         return x
#这里注释掉是想引入自己的写的py文件

#创建网络:
tudui=Tudui()

#创建损失函数
loss_fn=nn.CrossEntropyLoss()

#创建优化器
learning_rate=0.001
#或者写成科学计数法
#learning_rate=1e-2
optimizer=torch.optim.SGD(tudui.parameters(),lr=learning_rate)

#设置训练网络的一些参数:
#记录训练记录
total_train_step=0

#记录测试的次数
toatl_test_step=0

#训练的轮数
epoch=10

for i in range(epoch):
    print("--------第{}轮训练开始-----".format(i+1))

    #训练开始
    for data in train_dataloader:
        imgs,targets=data
        outputs=tudui(imgs)
        loss=loss_fn(outputs,targets)
        # 优化器优化模型
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()
        #记录训练次数
        total_train_step=total_train_step+1
        print("训练次数:{},Loss:{}".format(total_train_step,loss))


运行一下看看效果:
损失在减小
在这里插入图片描述

九、正规写法

在这里插入图片描述

import  torch
a=torch.tensor(5)
print(a)
print(a.item())

a.item会输出纯数字
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值