CNN卷积神经网络实现MNIST手写数字识别(二)

本文主要实现CNN卷积神经网络实现MNIST手写数字识别中的前向传播,其中的参数(权重与偏置)由上一篇文章“CNN卷积神经网络实现MNIST手写数字识别(一)”训练得到

本文参考:https://blog.csdn.net/Yang8465/article/details/90412314

其源码如下:

# -*- coding: utf-8 -*-
"""
Created on Tue Apr 13 11:12:09 2021

@author: ZZJin
"""
# 本代码参考网上教程,完成卷积神经网络的前向传播,以与自己写的前向传播对比数据
# 参考网址:https://blog.csdn.net/Yang8465/article/details/90412314

# 测试可用 20210413
import tensorflow as tf
from tensorflow import keras
from tensorflow.keras import datasets
import os
import numpy as np
import sys
import math#导入math模块
import time
sys.path.append(r"D:\Anaconda_project\CNNInFPGA\tf2.0_CNN_keras")
from Function import conv2d_33
from Function import maxpol_22
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'    #禁止控制台打印无关信息


IMAGE_SIZE = 28  #图片大小28*28
NUM_CHANNELS =1  #图片通道数
CONV1_SIZE = 3   #第一层卷积核大小
CONV1_KERNEL_NUM = 32  #第一层使用了32个卷积核
CONV2_SIZE = 3
CONV2_KERNEL_NUM = 64

OUTPUT_NODE = 10   #10分类输出
FC_SIZE = 512  #隐藏层节点个数
# 
# 加载数据集
(x_train, y_train), (x_test, y_test) = datasets.mnist.load_data()  #加载数据集
# /255.使得x的数据范围从 [0~255] 变为 [0~1.]
x1 = tf.convert_to_tensor(x_test, dtype=tf.float32) / 255.    #创建tensor
y1 = tf.convert_to_tensor(y_test, dtype=tf.int32)

# 读取已经训练好的神经网络参数
old = np.load
np.load.__defaults__=(None, True, True, 'ASCII')
loadData = np.load('CNN_weight.npy')
np.load.__defaults__=(None, False, True, 'ASCII')



# def get_weight(shape,regularizer):
#     #正态分布生成,去掉最大偏离点的
#     w = tf.Variable(tf.truncated_normal(shape,stddev=0.1))
#     if regularizer!=None:
#         tf.add_to_collection('losses',tf.contrib.layers.l2_regularizer(regularizer)(w))
#     return w
# 偏执B生成函数,初始值为0
# def get_bias(shape):
#     b = tf.Variable(tf.zeros(shape))
#     return b

#求卷积
def conv2d(x,w): #x 输入,所用卷积核W
    return tf.nn.conv2d(x,w,strides=[1,1,1,1],padding='VALID')

def max_pool_2x2(x):
    return tf.nn.max_pool(x,ksize=[1,2,2,1],strides=[1,2,2,1],padding='VALID')

# def forward(x,train,regularizer):
#初始化化第一层卷积核W ,B
x = tf.reshape(x1[2], [1, 28, 28, 1])
conv1_w = loadData[0]
conv1_b = loadData[1]
conv1 = conv2d(x,conv1_w)
#对conv1添加偏执,使用relu激活函数
bias1 = tf.nn.bias_add(conv1,conv1_b)
relu1 = tf.nn.relu(bias1)
#池化
pool1 = max_pool_2x2(relu1)

conv2_w = loadData[2]
conv2_b = loadData[3]
conv2 = conv2d(pool1, conv2_w)
relu2 = tf.nn.relu(tf.nn.bias_add(conv2, conv2_b))
pool2= max_pool_2x2(relu2)#第二层卷积的输出

pool_shape = pool2.get_shape().as_list()#得到pool2 输出矩阵的维度,存入list中
#提取特征的长,宽,深度
nodes = pool_shape[1]*pool_shape[2]*pool_shape[3]
#pool_shape[0]一个batch的值
#将pool2 表示成,pool_shape[0]行,nodes列
reshaped = tf.reshape(pool2,[pool_shape[0],nodes])
# 全连接网络
#第一层
fc1_w = loadData[4]
fc1_b = loadData[5]
fc1 = tf.nn.relu(tf.matmul(reshaped,fc1_w)+fc1_b)
# if train:fc1 = tf.nn.dropout(fc1,0.5)
#第二层
fc2_w = loadData[6]
fc2_b = loadData[7]
y = tf.matmul(fc1,fc2_w)+fc2_b
y_softmax = tf.nn.softmax(y)
# return y



 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
### 回答1: CNN卷积神经网络可以很好地实现MNIST手写数字识别数据集。MNIST数据集是一个非常流行的手写数字识别数据集,包含60,000个训练样本和10,000个测试样本。CNN卷积神经网络可以通过卷积层、池化层和全连接层等结构,对图像进行特征提取和分类,从而实现手写数字识别。在实现过程中,需要对数据进行预处理、构建模型、训练模型和评估模型等步骤。 ### 回答2: MNIST是机器学习领域中最基础的图像分类问题之一,目标是将手写数字识别成对应的数字CNN卷积神经网络由于其较高的效果和较快的速度,被广泛应用于此类问题中。 首先,我们需要明确CNN卷积神经网络的基本结构。它由多个卷积层和池化层组成,其中卷积层用于提取图像中的特征,而池化层则用于降低数据维度,减少运算量。在最后一层全连接层,特征将被映射到数字1-10的输出,以进行分类。 对于MNIST手写数字数据集,我们需要对数据进行预处理和格式化,以适应卷积神经网络的输入。我们可以将每个图片的大小调整为28x28像素,并将其转换为黑白图像。由于图像中的每个像素都代表相应位置的亮度值,我们需要在神经网络中进行标准化和归一化。 接下来,我们可以使用Keras框架搭建一个简单的卷积神经网络。其中,我们可以通过添加卷积层和池化层来实现特征提取和减少数据维度。在第一个卷积层后,我们可以添加一个批标准化层,它可以使每个神经元的输出分布更加均衡,从而提高训练效果。在卷积神经网络的输出端,我们可以添加一个全连接层,用于进行分类。 在完成网络结构的搭建之后,我们需要对卷积神经网络进行训练。我们可以通过设置合适的损失函数和优化算法来实现。针对MNIST数据集,我们可以选择使用交叉熵作为损失函数,随机梯度下降作为优化算法。我们可以通过调整学习率、正则化等参数,来提高训练效果。 最后,我们可以将卷积神经网络应用到MNIST测试集中进行验证,并评估其识别准确率。通过逐步调整网络结构和参数,我们可以不断改进卷积神经网络的性能,并实现更准确的手写数字识别。 ### 回答3: MNIST手写数字识别是计算机视觉领域中一个经典的问题,它要求从图像中识别手写数字。而CNN卷积神经网络是目前最有效的解决方案之一。 CNN卷积神经网络是一种深度学习模型,通过输入层、卷积层、池化层和全连接层等模块组成。在MNIST手写数字识别中,图片输入层将长度为28*28的维像素矩阵作为输入,经过卷积层、池化层、全连接层等几个步骤后输出对应的数字卷积层的作用是提取图像的特征,由于MNIST手写数字数据集的像素尺寸较小,因此用到的卷积核尺寸也较小。这里我们选取的卷积核为5*5,每个卷积核进行卷积时将每个像素与其周围的8个像素做卷积操作,这样可以从图像中提取更多的特征信息。 池化层的作用是减小图像的尺寸,在卷积层中提取的特征信息可能包含了相同重复或无用的信息,因此需要对其进行降维处理。在MNIST手写数字识别中,我们采取的是平均池化的方式,即将相邻的4个像素取平均值,将这个4*4的图像块变为一个单独的像素。 全连接层的作用是将提取出的特征信息映射到输出层,输出对应的数字。在MNIST手写数字识别中,我们选取两个全连接层,其中第一层的神经元数量为120,第层的神经元数量为84。最后,输出层的神经元数为10,每个神经元对应一个数字。 在训练模型时,我们采用交叉熵损失函数和随机梯度下降法更新权重。具体来说,我们将训练集分成若干个批次(batch),每次训练只使用其中一个批次的数据并对网络进行反向传播更新权重。 实验结果表明,CNN卷积神经网络能够在MNIST手写数字识别数据集上达到98%以上的识别率,比传统的机器学习方法(如SVM等)具有更高的准确率。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值