1.MNIST数据集
在手写数字识别中我们要使用MNIST手写数字图像集。MNIST是机器学习领域最有名的数据集之一,被广泛应用。实际上,在阅读图像识别或者机器学习的论文时,MNIST数据集经常作为实验用的数据出现。MNIST数据集由0到9的数组图像构成的,训练图像6万张,测试图像有1万张,这些图像可以用于学习和推理。MNIST数据集使用方法是,先用训练图像进行学习,再用学习到的模型度量能在多大程度上对测试图像进行正确分类。
下面我们进行MNIST数据集的下载并且查看处理后训练图像,训练标签,测试图像,测试标签等。
import sys,os
sys.path.append(os.pardir)
from mnist import load_mnist
# 调用mnist
(x_train,t_train),(x_test,t_test)=load_mnist(flatten=True,normalize=False)
# 输出各个数据的形状
print(x_train.shape)
print(t_train.shape)
print(x_test.shape)
print(t_test.shape)
load_mnist(flatten=True,normalize=False) 中的normalize设置是否将输入图像正规化为0.0-1.0的值。如果将该参数设置False,则输入图像的像素为原来的0-255,第二个参数flatten设置是否展开输入图像(变成一维数组)。如果设置为False,则输入图像为1x28x28的三维数组;设置为True,侧输入图像会保存为由784个元素构成的一维数组。
(60000, 784)
(60000,)
(10000, 784)
(10000,)
现在我们试着显示MNIST图像,同时也确认一下数据。图像的显示使用PIL(Python Image Library)模块。
# Author:北京
# QQ:838262020
# time:2021/4/1
import numpy as np
import sys,os
sys.path.append(os.pardir)
from mnist import load_mnist
from PIL import Image
# 图片显示
def img_show(img):
pil_img = Image.fromarray(np.uint8(img))
pil_img.show()
# 调用mnist
(x_train,t_train),(x_test,t_test)=load_mnist(flatten=True,normalize=False)
img = x_train[0]
lable =t_train[0]
print(lable)
print(img.shape)
# 指定imge的形状
img=img.reshape(28,28)
print(img.shape)
img_show(img)
神经网络的推理处理
下面,我们对MNIST数据集实现神经网络的推理处理。神经网络输入层的784这个数字来源于图像大小的28x28=784,输出层的10这个来源于10个类别分类(0到9)此外,这个神经网络有2个隐藏层,第一个隐藏层有50个神经元,第二个隐藏层有100神经元。这个50和100可以设置为任何值。
# Author:北京
# QQ:838262020
# time:2021/4/1
import numpy as np
import sys, os
sys.path.append(os.pardir)
from mnist import load_mnist
import pickle
from functions import sigmoid, softmax
def get_data():
(x_train, t_train), (x_test, t_test) = load_mnist(normalize=True, flatten=True, one_hot_label=False)
return x_test, t_test
def init_network():
with open('sample_weight.pkl', 'rb') as f:
network = pickle.load(f)
return network
def predict(network, x):
W1, W2, W3 = network['W1'], network['W2'], network['W3']
b1, b2, b3 = network['b1'], network['b2'], network['b3']
a1 = np.dot(x, W1) + b1
z1 = sigmoid(a1)
a2 = np.dot(z1, W2) + b2
z2 = sigmoid(a2)
a3 = np.dot(z2, W3) + b3
y = softmax(a3)
return y
x, t = get_data()
network = init_network()
accuracy_cnt = 0
for i in range(len(x)):
y = predict(network, x[i])
p = np.argmax(y) # 获取概率最高的元素的索引
if p == t[i]:
accuracy_cnt += 1
print("Accuracy:" + str(float(accuracy_cnt) / len(x)))
load_mnist(normalize=True, flatten=True, one_hot_label=False)中将参数normalize=True,函数内部会进行转换,将图像的各个像素除以255,使得数据在0.0-1.0的范围内,像这样把数据限定到某个范围内的处理称为正规化。此外,对神经网络的输入数据进行某种既定的转换称为预处理
批处理
# Author:北京
# QQ:838262020
# time:2021/4/1
import numpy as np
import sys, os
sys.path.append(os.pardir)
from mnist import load_mnist
import pickle
from functions import sigmoid, softmax
def get_data():
(x_train, t_train), (x_test, t_test) = load_mnist(normalize=True, flatten=True, one_hot_label=False)
return x_test, t_test
def init_network():
with open('sample_weight.pkl', 'rb') as f:
network = pickle.load(f)
return network
def predict(network, x):
W1, W2, W3 = network['W1'], network['W2'], network['W3']
b1, b2, b3 = network['b1'], network['b2'], network['b3']
a1 = np.dot(x, W1) + b1
z1 = sigmoid(a1)
a2 = np.dot(z1, W2) + b2
z2 = sigmoid(a2)
a3 = np.dot(z2, W3) + b3
y = softmax(a3)
return y
x, t = get_data()
network = init_network()
# 批数量
batch_size = 100
accuracy_cnt = 0
for i in range(0, len(x), batch_size):
x_batch = x[i:i + batch_size]
y_batch = predict(network, x_batch)
p = np.argmax(y_batch, axis=1)
accuracy_cnt += np.sum(p == t[i:i + batch_size])
print("Accuracy:" + str(float(accuracy_cnt) / len(x)))