使用pytorch框架实现bp神经网络作用于MNIST数据集

在这里插入图片描述

bp神经网络添加隐藏层:

import numpy as np
import matplotlib.pyplot as plt
from torch import nn,optim
from torch.autograd import Variable
import torch
from torchvision import datasets,transforms
from torch.utils.data import DataLoader
#导入数据集
train_dataset=datasets.MNIST(root="./",
                     train=True,
                     transform=transforms.ToTensor(),
                     download=False)
test_dataset=datasets.MNIST(root="./",
                     train=False,
                     transform=transforms.ToTensor(),
                     download=False)
#x=train_dataset.test_data
#y=train_dataset.train_labels
#print(x.shape)
#print(y.shape)
#print(train_dataset.train_data.shape)
#plt.imshow(train_dataset.train_data[2],cmap='gray')
#plt.title('%d'%train_dataset.train_labels[2])
#plt.show()
#分批
batch_size=50
input_size=784
hidden_size=500
num_classes=10
train_loader=DataLoader(dataset=train_dataset,
                        batch_size=batch_size,
                        shuffle=True)
test_loader=DataLoader(dataset=test_dataset,
                        batch_size=batch_size,
                        shuffle=True)
#观察数据维度
for i ,data in enumerate(train_loader):
    inputs,labels=data
    #print(data.index)
    print(inputs.shape) #torch.Size([64,1,28,28])
    print(labels.shape) #torch.Size([64])    
    break
#################################################################################
#实现模型
class SingleNet(nn.Module):
    def __init__(self,input_size,hidden_size,num_classes):
        super(SingleNet,self).__init__()
        self.fc1=nn.Linear(input_size,hidden_size)
        self.relu=nn.ReLU()
        self.fc2=nn.Linear(hidden_size,num_classes)
        
    def forward(self,x):
        out=self.fc1(x)
        out=self.relu(out)
        out=self.fc2(out)
        
        return out
#################################################################################    
model=SingleNet(input_size,hidden_size,num_classes)
loss=nn.CrossEntropyLoss()
optimizer=optim.SGD(model.parameters(),lr=0.01)
#################################################################################
#训练模型
def train():
    for i,data in enumerate(train_loader):
        inputs,labels=data
        inputs=Variable(inputs.view(-1,28*28))
        labels=Variable(labels)#把数据变成张量类型
        optimizer.zero_grad()
        output=model(inputs)
        loss1=loss(output,labels)
        loss1.backward()#计算损失函数
        optimizer.step()
def test():
    correct=0
    total=0
    for i,data in enumerate(test_loader):
        inputs,labels=data
        inputs=Variable(inputs.view(-1,28*28))
        outputs=model(inputs)
        _,predicted=torch.max(outputs.data,1)
        total+=labels.size(0)
        correct+=(predicted==labels).sum()
    print("准确率:%d %%"%(torch.floor_divide(100*correct, total)))
##train()
##test()
##train()
##test()
for i in range(10):
    train()
    test()


无隐藏层:

import numpy as np
import matplotlib.pyplot as plt
from torch import nn,optim
from torch.autograd import Variable
import torch
from torchvision import datasets,transforms
from torch.utils.data import DataLoader
#导入数据集
train_dataset=datasets.MNIST(root="./",
                     train=True,
                     transform=transforms.ToTensor(),
                     download=False)
test_dataset=datasets.MNIST(root="./",
                     train=False,
                     transform=transforms.ToTensor(),
                     download=False)

#数据太多,不要分批训练,定义批次生成器,和每个批次大小
batch_size=50
train_loader=DataLoader(dataset=train_dataset,
                        batch_size=batch_size,
                        shuffle=True)
test_loader=DataLoader(dataset=test_dataset,
                        batch_size=batch_size,
                        shuffle=True)
for i ,data in enumerate(train_loader):
    inputs,labels=data
    print(inputs.shape) #torch.Size([64,1,28,28])
    print(labels.shape) #torch.Size([64])
    break
print(labels)#0-9的数据,总共一批64个
print(len(train_loader),len(test_loader))#总共会循环938次60000张图片,分成938个批次,每个批次64个值
########################################################
#########定义网络########################
class Net(nn.Module):
    def __init__(self):
        super(Net,self).__init__()#父类初始化,固定格式
        self.fcl=nn.Linear(784,10)#定义一个简单神经网络输入层直接到输出层fcl
        self.softmax=nn.Softmax(dim=1) #定义激活幻术softmax.dim是维度从0开始,等于1就是矩阵的列
    def forward(self,x):#前向传播函数
        #x是([64,1,28,28])需要变成([64,784])
        x=x.view(x.size()[0],-1)#0是64,-1是自动匹配1*28*28=784
        x=self.fcl(x)    #传给网络再激活返回
        x=self.softmax(x)
        return x

########################################################
####定义模型
model=Net()
####定义代价函数MSEloss均方损失函数,分类问题用交叉熵比较好
#mse_loss=nn.MSELoss()
mse_loss=nn.CrossEntropyLoss()
####定义优化器,最简单的梯度下降法SGD,需要传入模型参数
optimizer=optim.SGD(model.parameters(),0.5) 
######################################################
##定义模型训练函数
##
def train():
    for i,data in enumerate(train_loader):#循环938次
        #获得一个批次数据
        inputs,labels=data
        out=model(inputs)#输出是(64,10)
        #交叉熵代价函数out是(batch.C)labels(batch)这个损失函数以可两维对一维,因为独热编码已经被封装在函数内部了
        loss=mse_loss(out,labels)

        #梯度清零
        optimizer.zero_grad()
        #计算梯度
        loss.backward()
        #跟新权值
        optimizer.step()

def test():
    correct=0
    for i,data in enumerate(test_loader):
        inputs,labels=data
        out=model(inputs)
        #计算out的1维度最大值所在的位置,softmax()所在计算出的最大概率所在的位置
        _,predicted=torch.max(out,1)
        #预测值和标签值相同的数目累加的
        correct+=(predicted==labels).sum()
    print("准确率:{0}".format(correct.item()/len(test_dataset)))    


for i in range(10):
    print('i:',i)
    train()
    test()

##train()
##test()
##train()
##test()
        
![在这里插入图片描述](https://img-blog.csdnimg.cn/20201109151629870.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1N3ZWV0Qm9uaw==,size_16,color_FFFFFF,t_70#pic_center)



在这里插入图片描述

  • 2
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是使用numpy实现bp神经网络并训练mnist数据集的代码: ```python import numpy as np import matplotlib.pyplot as plt from keras.datasets import mnist # 加载数据集并进行预处理 (x_train, y_train), (x_test, y_test) = mnist.load_data() x_train = x_train.reshape(x_train.shape[0], -1) / 255. x_test = x_test.reshape(x_test.shape[0], -1) / 255. y_train = np.eye(10)[y_train] y_test = np.eye(10)[y_test] # 定义神经网络模型 class NeuralNetwork: def __init__(self, input_size, hidden_size, output_size): self.W1 = np.random.randn(input_size, hidden_size) / np.sqrt(input_size) self.b1 = np.zeros(hidden_size) self.W2 = np.random.randn(hidden_size, output_size) / np.sqrt(hidden_size) self.b2 = np.zeros(output_size) def forward(self, X): self.z1 = np.dot(X, self.W1) + self.b1 self.a1 = np.tanh(self.z1) self.z2 = np.dot(self.a1, self.W2) + self.b2 exp_scores = np.exp(self.z2) self.probs = exp_scores / np.sum(exp_scores, axis=1, keepdims=True) def backward(self, X, y, learning_rate): delta3 = self.probs - y dW2 = np.dot(self.a1.T, delta3) db2 = np.sum(delta3, axis=0) delta2 = np.dot(delta3, self.W2.T) * (1 - np.power(self.a1, 2)) dW1 = np.dot(X.T, delta2) db1 = np.sum(delta2, axis=0) self.W1 -= learning_rate * dW1 self.b1 -= learning_rate * db1 self.W2 -= learning_rate * dW2 self.b2 -= learning_rate * db2 def train(self, X, y, learning_rate=0.01, num_epochs=10000, print_loss=False): for epoch in range(num_epochs): self.forward(X) self.backward(X, y, learning_rate) if print_loss and epoch % 1000 == 0: loss = self.calculate_loss(X, y) print("Epoch {0}: loss = {1}".format(epoch, loss)) def predict(self, X): self.forward(X) return np.argmax(self.probs, axis=1) def calculate_loss(self, X, y): self.forward(X) return -np.sum(y * np.log(self.probs)) # 创建神经网络对象并进行训练 nn = NeuralNetwork(784, 128, 10) nn.train(x_train, y_train, learning_rate=0.1, num_epochs=10000, print_loss=True) # 在测试集上评估模型性能 pred = nn.predict(x_test) accuracy = np.mean(pred == np.argmax(y_test, axis=1)) print("Test accuracy: {0}".format(accuracy)) # 保存模型 np.savez("model.npz", W1=nn.W1, b1=nn.b1, W2=nn.W2, b2=nn.b2) # 加载模型 model = np.load("model.npz") nn = NeuralNetwork(784, 128, 10) nn.W1 = model["W1"] nn.b1 = model["b1"] nn.W2 = model["W2"] nn.b2 = model["b2"] # 在测试集上评估加载的模型性能 pred = nn.predict(x_test) accuracy = np.mean(pred == np.argmax(y_test, axis=1)) print("Loaded model test accuracy: {0}".format(accuracy)) ``` 在该代码中,我们首先使用Keras库加载mnist数据集,并将其预处理为每个样本包含784个特征和10个类别。然后我们定义了一个NeuralNetwork类,该类包含了一个具有一个隐藏层的神经网络模型。我们使用tanh为隐藏层的激活函数,并使用softmax为输出层的激活函数。在训练过程中,我们使用反向传播算法更新模型参数。最后,我们将模型保存到一个npz文件中,并加载该文件以在测试集上评估模型性能。 注意,由于该模型是使用numpy实现的,因此训练时间可能会比较长。如果您想要更快的训练速度,您可以使用深度学习框架如TensorFlow或PyTorch实现该模型。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值