现实生活中,银行卡识别、车牌识别、快递货号识别是很常用的功能,这些都设计到手写字识别相关的内容。
手写数字数据集:MNIST
数据集大小:每张大小 28 * 28,共7000张图片
- 资料链接:https://pan.baidu.com/s/1ck1U3n1sTv6LFcoB0l6l4w 提取码:7ve5
推理阶段(也称:前向传播)
神经网络的输入层有784个神经元,输出层有10个神经元。
- 输入层的784这个数字来源于图像大小 28 * 28 = 784
- 输出层的10来源于10类别分类
- 此外需要注意的是:这个神经网络有2个隐藏层,第一个隐藏层有50个神经元,第2个隐藏层有100个神经元,但是这里的50和100可以设置成任何值
- 注:下面代码中需要的文件,自行在资料链接:https://pan.baidu.com/s/1ck1U3n1sTv6LFcoB0l6l4w 提取码:7ve5中下载
# coding: utf-8
import sys, os
sys.path.append(os.pardir) # 为了导入父目录的文件而进行的设定
import numpy as np
from dataset.mnist import load_mnist
from PIL import Image
import pickle
#sigmoid函数实现
def sigmoid(x):
return 1 / (1 + np.exp(-x))
#softmax函数实现
def softmax(x):
c = np.max(x)
exp_x = np.exp(x-c) #解决溢出问题
sum_exp = np.sum(exp_x)
y = exp_x / sum_exp
return y
#图片展示
def img_show(img):
pil_img = Image.fromarray(np.uint8(img))
pil_img.show()
#获取数据
def get_data():
#返回 (训练图像,训练标签),(测试图像,测试标签)形式数据
(x_train, t_train), (x_test, t_test) = load_mnist(flatten=True, normalize=False)
return x_test, t_test
#初始化网络
def init_network():
with open('../dataset/sample_weight.pkl', 'rb') as f:
network = pickle.load(f)
return network
#预测
def predict(network, x):
W1, W2, W3 = network['W1'], network['W2'], network['W3']
b1, b2, b3 = network['b1'], network['b2'], network['b3']
#网络传递
a1 = np.dot(x, W1) + b1
z1 = sigmoid(a1)
a2 = np.dot(z1, W2) + b2
z2 = sigmoid(a2)
a3 = np.dot(z2, W3) + b3
y = softmax(a3)
return y
#评价识别精度
def assess_accuracy():
x, t = get_data()
#网络初始化
network = init_network()
accuracy_cnt = 0
for i in range(len(x)):
y = predict(network, x[i])
#softmax 返回的值在【0~1】之间,所有返回值的总和是1
#在使用到softmax时,一般直接把返回值当作概率
p = np.argmax(y) #获取概率最高元素的索引
if(p == t[i]):
accuracy_cnt += 1
print("Accuracy: " + str(float(accuracy_cnt) / len(x)))
if __name__ == '__main__':
assess_accuracy()
1、批处理
现在我们来考虑打包输入多张图像的情形,比如我们想用predict()函数一次处理100张图片,也即每次输入是:100 X 784,表示一次输入的100张图像的结果被一次性输出了,这种打包式输入数据的方式称为:批(batch)
#批处理方式处理,每次输入100张图片
def batch_assess_accuracy():
x, t = get_data()
# 网络初始化
network = init_network()
batch_size = 100 #批处理
accuracy_cnt = 0
#一次取 batch张图片
for i in range(0, len(x), batch_size):
x_batch = x[i:i+batch_size]
y_batch = predict(network, x_batch)
# softmax 返回的值在【0~1】之间,所有返回值的总和是1
# 在使用到softmax时,一般直接把返回值当作概率
p = np.argmax(y_batch, axis=1) # 获取概率最高元素的索引
# p == t[i:i+batch_size]这里就会判断是否相同
accuracy_cnt += np.sum(p == t[i:i+batch_size])
print("Accuracy: " + str(float(accuracy_cnt) / len(x)))