模型套路2——神经网络的测试及图像展示

这部分是在前一篇基础上加上

1.测试过程

2.用tensorboard展示损失曲线变化

3.模型的保存

1.加上的测试代码:
total_test_loss=0
with torch.no_grad():#因为是做测试,确保不会计算梯度
for data in test_dataloader:
imgs,targets =data
outputs=tudui(imgs)
loss=loss_fn(outputs,targets)
total_test_loss=total_test_loss+loss.item()#计算累计测试误差
print("整体测试集上的loss:{}".format(total_test_loss))

效果图:

可以看到在测试集上效果也是越来越好的

2.加上tensorboard后的整体代码(标黄处为新增的代码)

import torch
import torchvision
from torch import nn
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter

#导数
train_data=torchvision.datasets.CIFAR10(root="../data",train=True,transform=torchvision.transforms.ToTensor()) #此处../表示数据保存在代码文件的上层,若是./则表示为当前文件夹
test_data=torchvision.datasets.CIFAR10(root="../data",train=False,transform=torchvision.transforms.ToTensor())


train_data_size=len(train_data)
test_data_size=len(test_data)
print("训练数据集长度:{}".format(train_data_size))
print("测试数据集长度:{}".format(test_data_size))

#切片
train_dataloader=DataLoader(train_data,batch_size=64)
test_dataloader=DataLoader(test_data,batch_size=64)

#搭建网络
class Tudui(nn.Module): #缺少模块名字时可以直接右键import
def __init__(self):
super(Tudui,self).__init__()
self.model=nn.Sequential(#用一个sequenti构建网络,方便后续调用
nn.Conv2d(3,32,5,1,2),
nn.MaxPool2d(2),
nn.Conv2d(32,32,5,1,2),
nn.MaxPool2d(2),
nn.Conv2d(32,64,5,1,2),
nn.MaxPool2d(2),
nn.Flatten(),
nn.Linear(64*4*4,64),
nn.Linear(64,10)
)
def forward(self,x):
x=self.model(x)
return x

tudui = Tudui()
#损失函数
loss_fn=nn.CrossEntropyLoss()

#优化器
learning_rate=1e-2
optimizer=torch.optim.SGD(tudui.parameters(),lr=learning_rate)

#设置参数
total_train_step=0
total_test_step=0
epoch=2
#添加tensorboard
writer = SummaryWriter("../logs_train") #加了个画板

for i in range(epoch):
print("----------第{}轮训练开始-------".format(i+1))

for data in train_dataloader:
imgs,targets=data
outputs=tudui(imgs)
loss=loss_fn(outputs,targets)
optimizer.zero_grad()
loss.backward()
optimizer.step()
total_train_step=total_train_step+1
if total_train_step%100==0:
print("训练次数:{},loss:{}".format(total_train_step, loss.item()))#item作用是把tensor转为数字

writer.add_scalar("train_loss",loss.item(),total_train_step)#后两个是横纵坐标,此句作用是加图像

total_test_loss=0
with torch.no_grad():#因为是做测试,确保不会计算梯度
for data in test_dataloader:
imgs,targets =data
outputs=tudui(imgs)
loss=loss_fn(outputs,targets)
total_test_loss=total_test_loss+loss.item()#计算累计测试误差
print("整体测试集上的loss:{}".format(total_test_loss))

writer.add_scalar("test_loss",total_test_loss, total_test_step)
total_test_step=total_test_step+1
writer.close()
 

展示图像:之后打开terminal,输入 conda activate pytorch 激活pytorch环境,然后根据前面代码中的文件地址,用tensorboard--logdir=logs_train,系统会得到一个地址,把地址贴到浏览器就会有图像

但是这里报错了,原因是直接输相对路径找不到文件,要输绝对路径

tensorboard --logdir=D:\Users\byy\PYCHARM\temp\logs_train

得到训练和测试图像

3.模型保存

torch.save(tudui,"tudui_{}.pth".format(i))#前面是模型名,后者是文件名

这样完整地模型训练就成功啦!

  • 50
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值