import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
mnist=input_data.read_data_sets('mnist_data',one_hot=True)
#每个批次的大小,训练模型时,一次放入一批次
batch_size=100 #一批次100张图
#计算一共有多少个批次
n_batch=mnist.train.num_examples//batch_size# //是整除,得到批次数
#初始化权值
def weight_variable(shape):#传入一个数据形状,值由truncated_normal来生成
initial=tf.truncated_normal(shape,stddev=0.1)#生成一个截断的正态分布,shape表示数据形状
return tf.Variable(initial)
#初始化偏置
def bias_variable(shape):
initial=tf.constant(0.1,shape=shape)#定义常量0.1,shape是数据形状
return tf.Variable(initial)
#卷积层
def conv2d(x,W):#tensor张量,张量概念是矢量概念的推广,矢量是一阶张量。张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数。
#x input tensor of shape '[batch, in_height, in_width, in_channels]',这里的tensor是四维的值。batch是批次的大小。in_channel是通道数,黑白图片通道数是1,彩色图片通道数是3.
#W filter/kernel tensor of shape [filter_height,filt
卷积神经网络CNN,mnist实例
最新推荐文章于 2024-02-17 16:44:41 发布
本文通过MNIST实例对比了卷积神经网络(CNN)与全连接网络(FCN)。结果显示,尽管CNN的运行速度较慢,但其在测试准确率上显著优于FCN。
摘要由CSDN通过智能技术生成