python包实现bp神经网络_Python实现bp神经网络识别MNIST数据集

该博客介绍了如何使用Python实现BP神经网络来识别MNIST数据集中的手写数字。首先,从.mat文件加载训练集并进行二值化处理,然后定义sigmoid激活函数和训练函数。在训练过程中,博主展示了每5000次迭代的进度。最后,定义测试函数评估神经网络的正确率,并提供了一个用于识别单张图片的接口。
摘要由CSDN通过智能技术生成

title: "Python实现bp神经网络识别MNIST数据集"

date: 2018-06-18T14:01:49+08:00

tags: [""]

categories: ["python"]

前言

训练时读入的是.mat格式的训练集,测试正确率时用的是png格式的图片

代码

#!/usr/bin/env python3

# coding=utf-8

import math

import sys

import os

import numpy as np

from PIL import Image

import scipy.io as sio

def sigmoid(x):

return np.array(list(map(lambda i: 1 / (1 + math.exp(-i)), x)))

def get_train_pattern():

# 返回训练集的特征和标签

# current_dir = os.getcwd()

current_dir = "/home/lxp/F/developing_folder/intelligence_system/bpneuralnet/"

train = sio.loadmat(current_dir + "mnist_train.mat")["mnist_train"]

train_label = sio.loadmat(

current_dir + "mnist_train_labels.mat")["mnist_train_labels"]

train = np.where(train > 180, 1, 0) # 二值化

return train, train_label

def get_test_pattern():

# 返回测试集

# base_url = os.getcwd() + "/test/"

base_url = "/home/lxp/F/developing_folder/intelligence_system/bpneuralnet/mnist_test/"

test_img_pattern = []

for i in range(10):

img_url = os.listdir(base_url + str(i))

t = []

for url in img_url:

img = Image.open(base_url + str(i) + "/" + url)

img = img.convert('1') # 二值化

img_array = np.asarray(img, 'i') # 转化为int数组

img_vector = img_array.reshape(

img_array.shape[0] * img_array.shape[1]) # 展开成一维数组

t.append(img_vector)

test_img_pattern.append(t)

return test_img_pattern

class BPNetwork:

# 神经网络类

def __init__(self, in_count, hiden_count, out_count, in_rate, hiden_rate):

"""

:param in_count: 输入层数

:param hiden_count: 隐藏层数

:param out_count: 输出层数

:param in_rate: 输入层学习率

:param hiden_rate: 隐藏层学习率

"""

# 各个层的节点数量

self.in_count = in_count

self.hiden_count = hiden_count

self.out_count = out_count

# 输入层到隐藏层连线的权重随机初始化

self.w1 = 0.2 * \

np.random.random((self.in_count, self.hiden_count)) - 0.1

# 隐藏层到输出层连线的权重随机初始化

self.w2 = 0.2 * \

np.random.random((self.hiden_count, self.out_count)) - 0.1

# 隐藏层偏置向量

self.hiden_offset = np.zeros(self.hiden_count)

# 输出层偏置向量

self.out_offset = np.zeros(self.out_count)

# 输入层学习率

self.in_rate = in_rate

# 隐藏层学习率

self.hiden_rate = hiden_rate

def train(self, train_img_pattern, train_label):

if self.in_count != len(train_img_pattern[0]):

sys.exit("输入层维数与样本维数不等")

# for num in range(10):

# for num in range(10):

for i in range(len(train_img_pattern)):

if i % 5000 == 0:

print(i)

# 生成目标向量

target = [0] * 10

target[train_label[i][0]] = 1

# for t in range(len(train_img_pattern[num])):

# 前向传播

# 隐藏层值等于输入层*w1+隐藏层偏置

hiden_value = np.dot(

train_img_pattern[i], self.w1) + self.hiden_offset

hiden_value = sigmoid(hiden_value)

# 计算输出层的输出

out_value = np.dot(hiden_value, self.w2) + self.out_offset

out_value = sigmoid(out_value)

# 反向更新

error = target - out_value

# 计算输出层误差

out_error = out_value * (1 - out_value) * error

# 计算隐藏层误差

hiden_error = hiden_value * \

(1 - hiden_value) * np.dot(self.w2, out_error)

# 更新w2,w2是j行k列的矩阵,存储隐藏层到输出层的权值

for k in range(self.out_count):

# 更新w2第k列的值,连接隐藏层所有节点到输出层的第k个节点的边

# 隐藏层学习率×输入层误差×隐藏层的输出值

self.w2[:, k] += self.hiden_rate * out_error[k] * hiden_value

# 更新w1

for j in range(self.hiden_count):

self.w1[:, j] += self.in_rate * \

hiden_error[j] * train_img_pattern[i]

# 更新偏置向量

self.out_offset += self.hiden_rate * out_error

self.hiden_offset += self.in_rate * hiden_error

def test(self, test_img_pattern):

"""

测试神经网络的正确率

:param test_img_pattern[num][t]表示数字num的第t张图片

:return:

"""

right = np.zeros(10)

test_sum = 0

for num in range(10): # 10个数字

# print("正在识别", num)

num_count = len(test_img_pattern[num])

test_sum += num_count

for t in range(num_count): # 数字num的第t张图片

hiden_value = np.dot(

test_img_pattern[num][t], self.w1) + self.hiden_offset

hiden_value = sigmoid(hiden_value)

out_value = np.dot(hiden_value, self.w2) + self.out_offset

out_value = sigmoid(out_value)

# print(out_value)

if np.argmax(out_value) == num:

# 识别正确

right[num] += 1

print("数字%d的识别正确率%f" % (num, right[num] / num_count))

# 平均识别率

print("平均识别率为:", sum(right) / test_sum)

"""

def test1:

"""

def run():

# 读入训练集

train, train_label = get_train_pattern()

# 读入测试图片

test_pattern = get_test_pattern()

# 神经网络配置参数

in_count = 28 * 28

hiden_count = 6

out_count = 10

in_rate = 0.1

hiden_rate = 0.1

bpnn = BPNetwork(in_count, hiden_count, out_count, in_rate, hiden_rate)

bpnn.train(train, train_label)

bpnn.test(test_pattern)

# 单张测试

# 识别单独一张图片,返回识别结果

"""

while True:

img_name = input("输入要识别的图片\n")

base_url = "/home/lxp/F/developing_folder/intelligence_system/bpneuralnet/"

img_url = base_url + img_name

img = Image.open(img_url)

img = img.convert('1') # 二值化

img_array = np.asarray(img, 'i') # 转化为int数组

# 得到图片的特征向量

img_v = img_array.reshape(img_array.shape[0] * img_array.shape[1]) # 展开成一维数组

bpnn.test1(img_v)

"""

if __name__ == "__main__":

run()

# train, train_label = get_train_pattern()

# print(train_label[5][0])

# test = get_test_pattern()

【Python】keras神经网络识别mnist

上次用Matlab写过一个识别Mnist的神经网络,地址在:https://www.cnblogs.com/tiandsp/p/9042908.html 这次又用Keras做了一个差不多的,毕竟,现在 ...

matlab练习程序(神经网络识别mnist手写数据集)

记得上次练习了神经网络分类,不过当时应该有些地方写的还是不对. 这次用神经网络识别mnist手写数据集,主要参考了深度学习工具包的一些代码. mnist数据集训练数据一共有28*28*60000个像素 ...

RNN入门(一)识别MNIST数据集

RNN介绍   在读本文之前,读者应该对全连接神经网络(Fully Connected Neural Network, FCNN)和卷积神经网络( Convolutional Neural Netwo ...

python构建bp神经网络_曲线拟合(一个隐藏层)__2.代码实现

IDE:jupyter 抽象程度可能不是那么高,以后再优化. 理论和代码实现的差距还是挺大的 数据集请查看 python构建bp神经网络(一个隐藏层)__1.数据可视化 部分代码预览 git上传.ip ...

SGD与Adam识别MNIST数据集

几种常见的优化函数比较:https://blog.csdn.net/w113691/article/details/82631097 ''' 基于Adam识别MNIST数据集 ''' import t ...

deep_learning_LSTM长短期记忆神经网络处理Mnist数据集

1.RNN(Recurrent Neural Network)循环神经网络模型 详见RNN循环神经网络:https://www.cnblogs.com/pinard/p/6509630.html 2. ...

TensorFlow——LSTM长短期记忆神经网络处理Mnist数据集

1.RNN(Recurrent Neural Network)循环神经网络模型 详见RNN循环神经网络:https://www.cnblogs.com/pinard/p/6509630.html 2. ...

TensorFlow——CNN卷积神经网络处理Mnist数据集

CNN卷积神经网络处理Mnist数据集 CNN模型结构: 输入层:Mnist数据集(28*28) 第一层卷积:感受视野5*5,步长为1,卷积核:32个 第一层池化:池化视野2*2,步长为2 第二层卷积 ...

卷积神经网络CNN识别MNIST数据集

这次我们将建立一个卷积神经网络,它可以把MNIST手写字符的识别准确率提升到99%,读者可能需要一些卷积神经网络的基础知识才能更好的理解本节的内容. 程序的开头是导入TensorFlow: impor ...

随机推荐

转 XenServer、XenCenter安装测试

本文转自:http://blog.sina.com.cn/s/blog_5611597901014ze4.html 系统环境:win7 64bit  vmware-8.0.1 镜像文件:XenServ ...

转:javascript 中select的取值

javascript获取select的值全解 获取显示的汉字 document.getElementById("bigclass").options[window.document ...

SQL中常用数学函数

--1 RAND() 返回0到1的随机值,若不指定随机种子,返回值不同;若指定的种子相同则随机值相同SELECT RAND()SELECT RAND()SELECT RAND(100)SELECT R ...

Hadoop记录-hive merge小文件

1. Map输入合并小文件对应参数:set mapred.max.split.size=256000000;  #每个Map最大输入大小set mapred.min.split.size.per.no ...

CentOS 7.2配置Apache服务httpd小伙伴们可以参考一下

这篇文章主要为大家详细介绍了CentOS 7.2配置Apache服务 httpd上篇,具有一定的参考价值,感兴趣的小伙伴们可以参考一下 一.Perl + mod_perl 安装mod_perl使Per ...

4412 uboot上手

1,了解 print  查看UBOOT软件的环境变量       (变量名=变量) setenv.saveenv   setenv abc 100 200   设置 添加一个变量值 修改一个已有的变量 ...

使用volley上传多张图片,一个参数对应多张图片,转载

https://my.oschina.net/u/1177694/blog/491834 原帖地址 而如果使用volley的话,因为请求数据那些都很简便,但遇到上传文件就麻烦那可不好,同时使用多个网络 ...

toogle

...

cmake介绍

1. cmake介绍 1.1 cmake用途 CMake的用途是能通过一系列的源码和相关的配置来生成需要的编译器平台上的项目文件.譬如,如果一个项目需要在Windows上用VS编译,在Linux上用m ...

windows 自动copy远程服务器文件

net use h: \\123.45.67.000\T1dbbackup 123456/user:administrator ------远程服务器IP123.45.67.000  .T1dbbac ...

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值