创建你的第一个神经网路-识别手写数字

新手入门推荐书籍:简单好懂易操作:
在这里插入图片描述
书中的数据集地址(只是用来测试性能)
测试数据集100个标记样本:
训练数据集10个标记样本
下载方式(谷歌浏览器):
在这里插入图片描述
正规的训练集(包含6万个标记样本)
正规测试集(包含1万个标记样本)

一、初始化网络,设置输入层节点,隐藏层节点和输出层节点

import numpy
import scipy.special
import matplotlib.pyplot
class neuralNetwork:
    #初始化网络,设置输入层节点,隐藏层节点和输出层节点
    def __init__(self,inputnodes,hiddennodes,outputnodes,learningrate):
        #设置 每一个输入,隐藏,输出层的节点的数量
        self.inodes=inputnodes
        self.hnodes=hiddennodes
        self.onodes=outputnodes
        #学习速率
        self.lr=learningrate
        # 链接权重矩阵的简单设置方式1,numpy.random.rand创建给定形状的数组,并使用来自均匀分布的随机样本填充它。[0, 1)
        # self.wih=(numpy.random.rand(self.hnodes,self.inodes)-0.5)
        # self.who=(numpy.random.rand(self.onodes,self.hnodes)-0.5)


        # 较复杂形式的权重设置方式,pow(x,y)方法返回(x的y次方)的值。
        # numpy.random.normal(loc = 0.0,scale = 1.0,size = None )用来设置正态分布,表示中心位置,大小,尺寸
        #wih是输入的初始权重,使用下一层的节点数的开方作为标准方差来初始化权重
        self.wih = numpy.random.normal(0.0, pow(self.hnodes, -0.5), (self.hnodes, self.inodes))
        #输入层到隐藏层的初始权重
        self.who = numpy.random.normal(0.0, pow(self.onodes, -0.5), (self.onodes, self.hnodes))
        #激活函数s,lambda简化了函数定义的书写形式。是代码更为简洁,但是使用函数的定义方式更为直观,易理解。
        self.activation_function=lambda x:scipy.special.expit(x)
        pass

二、训练网络

    def tarin(self,inputs_list,targets_list):
        #.T表示将矩阵转置
        #ndmin指定结果数组应具有的最小维数。为满足此要求,将根据需要预先设置形状。
        inputs = numpy.array(inputs_list, ndmin=2).T
        targets=numpy.array(targets_list,ndmin=2).T
        # 计算输入到隐藏层的信号
        hidden_inputs = numpy.dot(self.wih, inputs)
        # 计算从隐藏层输出的信号,使用激活函数
        hidden_outputs = self.activation_function(hidden_inputs)

        # 计算输出到最终输出层的信号
        final_inputs = numpy.dot(self.who, hidden_outputs)
        # 计算从最终输出层输出的信号
        final_outputs = self.activation_function(final_inputs)

        #输出层的误差是(目标-实际)
        output_errors=targets-final_outputs
        #隐藏层的误差
        hidden_errors=numpy.dot(self.who.T,output_errors)
        #更新隐藏层和输出层的链接权重
        self.who+=self.lr*numpy.dot((output_errors*final_outputs*(1.0-final_outputs)),numpy.transpose(hidden_outputs))
        # 更新输入层和隐藏层的链接权重
        self.wih+=self.lr*numpy.dot((hidden_errors*hidden_outputs*(1.0-hidden_outputs)),numpy.transpose(inputs))
        pass

三、查询网络(输入列表,转化正矩阵后得到最终输出层的结果)

注意:编码神经网络时,将使用数组来表示输入信号、权重和输出信号的矩阵,训练神经网络的过程中有两个阶段:
1.计算输出,也就是query()所做的工作,输入列表,转化正矩阵后得到最终输出层的结果
2.反向传播误差,告知如何优化链接权重

    def query(self,inputs_list):
          # 将输入列表转化为2d矩阵
          inputs=numpy.array(inputs_list, ndmin=2).T

          #计算输入到隐藏层的信号
          hidden_inputs=numpy.dot(self.wih, inputs)
          #计算从隐藏层输出的信号
          hidden_outputs=self.activation_function(hidden_inputs)

          #计算输出到最终输出层的信号
          final_inputs=numpy.dot(self.who,hidden_outputs)
          #计算从最终输出层输出的信号
          final_outputs=self.activation_function(final_inputs)
          return final_outputs

四、正式开始训练,测试网络的性能

这一段代码书上解释的很详细,我懒得打了
image_array=numpy.asfarray(all_values[1:]).reshape((28,28))
matplotlib.pyplot.imshow(image_array,cmap=‘Greys’,interpolation=‘None’)
在这里插入图片描述
关于学习率的大小,这是凭经验来决定的,你也可以自己来调整,但不是越大越好,也不是越小越好,多次测试可以得出较好的学习率,比如学习率我改成0.1的话,性能得分就会提升到0.952,我们把一次训练称为一个世代,多次训练是有益的,比如我们训练10次,它的性能结果会提升,但是也不宜过多,不然容易造成网络过度拟合训练数据,因此网络在先前没有见到过的新数据上表现不佳。

#创建一个每层三个节点,学习率为0.5的小型神经网络对象
input_nodes=784#这是28*28的结果,即组成手写数字图像的像素个数
hidden_nodes=100#选择100个隐藏节点不是固定的,最好比输入节点小,这样可以迫使网络总结出特点,
# 但也不能太小,因为太少使网络难以找到足够的特征或模式,没有办法找到最好的,只能通过不断改进实验,得到最佳隐藏节点
output_nodes=10#因为有10个标签
learning_rate=0.3(0.2,0.1....根据你自己来调整吧)

#创造神经网络的对象
n =neuralNetwork(input_nodes,hidden_nodes,output_nodes,learning_rate)
# n.query({1.0,0.5,-1.5})
#将训练集文件导入成列表
training_data_file=open("mnist_train.csv",'r')#这里可以先用只有100个训练集的样本进行测试,等到运行成功再用正规数据集
training_data_list=training_data_file.readlines()
training_data_file.close()

# print(len(data_list))
# print(data_list[0])

#训练神经网络
for record in training_data_list:
   all_values=record.split(',')#根据,号将标记数字分隔开
   #缩小并且转换输入
   # 这一步是将0-255范围的原始输入值的范围变成0.01到0.99
   inputs = (numpy.asfarray(all_values[1:]) / 255.0 * 0.99) + 0.01
   targets = numpy.zeros(output_nodes) + 0.01
   targets[int(all_values[0])] = 0.99
   n.tarin(inputs, targets)
   pass

# print(scaled_input)


#测试网络
test_data_file=open('mnist_test.csv','r')#这里可以先用只有10个的训练集来测试
test_data_list=test_data_file.readlines()
test_data_file.close()
all_values=test_data_list[0].split(',')
print(all_values[0])
image_array=numpy.asfarray(all_values[1:]).reshape((28,28))
matplotlib.pyplot.imshow(image_array,cmap='Greys',interpolation='None')
matplotlib.pyplot.show()
#将除了第一个数字以外的其他数字转换成数组并且缩小尺度
print(n.query((numpy.asfarray(all_values[1:])/255.0*0.99)+0.01))


#scorecard用来记录网络的表现,初始为空
scorecard=[]
#遍历测试数据集中的所有记录
for record in test_data_list:
    all_values=record.split(',')
    correct_label=int(all_values[0])
    print(correct_label,"correct label")
    #缩小并且转换输入
    inputs=(numpy.asfarray(all_values[1:])/255.0*0.99)+0.01
    outputs=n.query(inputs)
    label=numpy.argmax(outputs)
    print(label,"network's answer")
    if(label==correct_label):
        scorecard.append(1)
    else:
        scorecard.append(0)
        pass
print(scorecard)
#打印出表现得分
scorecard_array=numpy.asarray(scorecard)
print("performance=",scorecard_array.sum()/scorecard_array.size)

结果:

这里是用60000个标记集训练,和10000个测试集测试的结果,准确率是0.9448
如果只用100个标记集训练,10个测试,结果只有0.6,可以看出,训练集数量的重要性了吧
在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是一个基于全连接神经网络的手写数字识别项目的代码示例: ```python import numpy as np import matplotlib.pyplot as plt import tensorflow as tf from keras.datasets import mnist # 加载 MNIST 数据集 (x_train, y_train), (x_test, y_test) = mnist.load_data() # 数据预处理 x_train = x_train / 255.0 x_test = x_test / 255.0 x_train = x_train.reshape(-1, 784) x_test = x_test.reshape(-1, 784) y_train = tf.keras.utils.to_categorical(y_train, 10) y_test = tf.keras.utils.to_categorical(y_test, 10) # 定义模型 model = tf.keras.models.Sequential([ tf.keras.layers.Dense(128, activation='relu', input_shape=(784,)), tf.keras.layers.Dense(10, activation='softmax') ]) # 编译模型 model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy']) # 训练模型 model.fit(x_train, y_train, epochs=10, validation_data=(x_test, y_test)) # 评估模型 test_loss, test_acc = model.evaluate(x_test, y_test) print('Test accuracy:', test_acc) # 使用模型进行预测 predictions = model.predict(x_test) ``` 这个代码使用了 TensorFlow 和 Keras 库来构建和训练模型,使用 MNIST 数据集进行手写数字识别。模型由两个全连接层组成,其中第一个层包含 128 个神经元,使用 ReLU 激活函数,第二个层包含 10 个神经元,使用 softmax 激活函数。模型使用交叉熵损失函数进行优化,在训练过程中使用了验证集进行评估。最后,模型评估了在测试集上的准确率,并使用模型进行了预测。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值