pytorch之手写数字识别

记一下学习pytorch一次程序练习,主要功能是实现构造三层神经网络识别MNIST数据集,最后的识别结果:在这里插入图片描述
本文代码如下:

import torch
import numpy as np
import matplotlib.pyplot as plt
from torch import nn
from torch import optim
import os
from torch.autograd import Variable
from torch.utils.data import DataLoader
from torchvision import datasets,transforms         #导入库以及工具包


os.environ["KMP_DUPLICATE_LIB_OK"] = "TRUE"
batch_size=64
learning_rate=0.001
num_epoches=30        #定义参数


data_tf=transforms.Compose([transforms.ToTensor(),transforms.Normalize([0.5],[0.5])])    #对数据集进行处理,将图片转换成tensor类型并且归一标准化
#

train_dataset=datasets.MNIST(root='./data',train=True,transform=data_tf,download=True)
test_dataset=datasets.MNIST(root='./data',train=False,transform=data_tf,download=True)
train_loader=DataLoader(train_dataset,batch_size=batch_size,shuffle=True)
test_loader=DataLoader(test_dataset,batch_size=batch_size,shuffle=False)            #通过python内部程序dataloader下载MNIST手写字体数据集


class Batch_Net(nn.Module):                  #定义一个神经网络,作为识别分类
    def __init__(self,in_dim,n_hidden_1,n_hidden_2,out_dim):
        super(Batch_Net, self).__init__()      #初始化模型
        self.layer1=nn.Sequential(nn.Linear(in_dim,n_hidden_1),nn.BatchNorm1d(n_hidden_1),nn.ReLU(True))  #构造第一层网络
        self.layer2=nn.Sequential(nn.Linear(n_hidden_1,n_hidden_2),nn.BatchNorm1d(n_hidden_2),nn.ReLU(True))#构造第二层网络
        self.layer3=nn.Sequential(nn.Linear(n_hidden_2,out_dim)) #构造第三层网络,即输出层

    def forward(self,x):          #前向传播过程
        x=self.layer1(x)
        x=self.layer2(x)
        x=self.layer3(x)
        return x


model=Batch_Net(28*28,300,100,10)          #加载模型并输出参数
criterion=nn.CrossEntropyLoss()            #构造损失函数为交叉熵
optimizer=optim.SGD(model.parameters(),lr=learning_rate,momentum=0.9)     #定义优化器,设置学习率以及动量

for epoch in range(num_epoches):           #开始训练,进行迭代
    for tr_data in train_loader:           #开始将训练集中的数据送入模型中
        train_img, train_label = tr_data
        train_img = train_img.view(train_img.size(0), -1)
        with torch.no_grad():
            train_img = Variable(train_img)
            train_label = Variable(train_label)
        out = model(train_img)
        loss = criterion(out, train_label)
        print_loss=loss.item()
        optimizer.zero_grad()     #先归零梯度
        loss.backward()             #反向传播
        optimizer.step()            #进行步长
        if (epoch+1)%10==0:         #显示训练过程
            print('*'*10)
            print('epoch{}'.format(epoch+1))
            print('loss:{:.4f}'.format(print_loss))


model.eval()           #调用函数开始训练
eval_loss=0
eval_acc=0
for data in test_loader:
    img,label=data          #开始测试过程
    img=img.view(img.size(0),-1)
    with torch.no_grad():
        img=Variable(img)
        label=Variable(label)
    out=model(img)
    loss=criterion(out,label)
    eval_loss+=loss.item()*label.size(0)
    _,pred=torch.max(out,1)
    num_correct=(pred==label).sum()
    eval_acc+=num_correct.item()
    print('Test Loss:{:.6f},acc:{:.6f}'.format(eval_loss/(len(test_dataset)),eval_acc/(len(test_dataset))))            #输出最后结果

参考《深度学习入门之pytorch》廖星宇著。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值