tensorflow:多层CNN

一般来说,CNN网络的前几层为卷积层和采样层(或者说池化层),在若干层卷积和池化以后,还有若干层全连接层(也就是传统神经网络),最后输出分类信息。大概的结构示意图如下图所示

此处输入图片的描述

可以看到,CNN相比与传统神经网络,最大的区别就是引入了卷积层和池化层。这也是我们在代码中要着重看的地方。 
在下面的代码中,卷积是使用tf.nn.conv2d, 池化使用tf.nn.max_pool,下面来详细的讲解一下这两个函数的用法。


tf.nn.conv2d

这个函数的功能是:给定4维的input和filter,计算出一个2维的卷积结果。函数的定义为:

def conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None,
           data_format=None, name=None):
 
 
  • 1
  • 2

前几个参数分别是input, filter, strides, padding, use_cudnn_on_gpu, …下面来一一解释 
input:待卷积的数据。格式要求为一个张量,[batch, in_height, in_width, in_channels]
分别表示 批次数,图像高度,宽度,输入通道数。 
filter: 卷积核。格式要求为[filter_height, filter_width, in_channels, out_channels]
分别表示 卷积核的高度,宽度,输入通道数,输出通道数。 
strides :一个长为4的list. 表示每次卷积以后卷积窗口在input中滑动的距离 
padding :有SAME和VALID两种选项,表示是否要保留图像边上那一圈不完全卷积的部分。如果是SAME,则保留 
use_cudnn_on_gpu :是否使用cudnn加速。默认是True


tf.nn.max_pool 
进行最大值池化操作,而avg_pool 则进行平均值池化操作.函数的定义为:

def max_pool(value, ksize, strides, padding, data_format="NHWC", name=None):
 
 
  • 1

value: 一个4D张量,格式为[batch, height, width, channels],与conv2d中input格式一样 
ksize: 长为4的list,表示池化窗口的尺寸 
strides: 池化窗口的滑动值,与conv2d中的一样 

padding: 与conv2d中用法一样。


#coding= "UTF-8"
from __future__ import absolute_import 
from __future__ import division
from __future__ import print_function

#import data
from tensorflow.examples.tutorials.mnist import input_data

import tensorflow as tf 

flags = tf.app.flags
FLAGS = flags.FLAGS
flags.DEFINE_string('data_dir','data/',"directory for storing data")

print (FLAGS.data_dir)
mnist = input_data.read_data_sets(FLAGS.data_dir,one_hot = True)


def weight_variable(shape):
	initial = tf.truncated_normal(shape,stddev = 0.1)
	return tf.Variable(initial)

def bias_variable(shape):
	initial = tf.constant(0.1,shape = shape)
	return tf.Variable(initial)

def conv2d(x,w):
	return tf.nn.conv2d(x,w,strides = [1,1,1,1],padding ='SAME')

def max_pool_2x2(x):
	return tf.nn.max_pool(x,ksize = [1,2,2,1],2
		strides = [1,2,2,1],padding = "SAME")

sess = tf.InteractiveSession()

x = tf.placeholder(tf.float32,[None,784])
x_image = tf.reshape(x,[-1,28,28,1])

#第一层
w_conv1 = weight_variable([5,5,1,32])
b_conv1 = bias_variable([32])
h_conv1 = tf.nn.elu(conv2d(x_image,w_conv1)+b_conv1)
h_pool1 = max_pool_2x2(h_conv1)

#第二层

w_conv2 = weight_variable([5,5,32,64])
b_conv2 = bias_variable([64])
h_conv2 = tf.nn.elu(conv2d(h_pool1,w_conv2)+b_conv2)
h_pool2 = max_pool_2x2(h_conv2)

#第三层
w_fc1 = weight_variable([7*7*64,1024])
b_fc1 = bias_variable([1024])
h_pool2_flat = tf.reshape(h_pool2,[-1,7*7*64])
h_fc1 = tf.nn.elu(tf.matmul(h_pool2_flat,w_fc1)+b_fc1)
keep_prob = tf.placeholder(tf.float32)
h_fc1_drop = tf.nn.dropout(h_fc1,keep_prob)

#第四层
w_fc2 = weight_variable([1024,10])
b_fc2 = bias_variable([10])
y_conv = tf.nn.softmax(tf.matmul(h_fc1_drop,w_fc2) + b_fc2)
y_ = tf.placeholder(tf.float32,[None,10])

#loss+train
#交叉熵损失函数
loss = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y_conv),reduction_indices = [1]))
train_step = tf.train.AdamOptimizer(1e-4).minimize(loss)
correct_prediction = tf.equal(tf.argmax(y_conv,1),tf.argmax(y_,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
sess.run(tf.initialize_all_variables())
for i in range(1001):
	batch = mnist.train.next_batch(50)
	if i%100 == 0:
		train_accurancy = sess.run(accuracy,feed_dict = {x:batch[0],y_:batch[1],keep_prob:1.0})
		print('step: %d,training accuracy: %g' % (i,train_accurancy))
	sess.run(train_step,feed_dict = {x:batch[0],y_:batch[1],keep_prob:0.5})

print ("text accuracy %g" % sess.run(accuracy,feed_dict = {x:mnist.test.images,y_:mnist.test.labels,keep_prob :1.0}))


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
提供的源码资源涵盖了安卓应用、小程序、Python应用和Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些源码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,源码中配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 这些源码资源特别适合大学生群体。无论你是计算机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资源都能为你提供宝贵的学习和实践机会。通过学习和运行这些源码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些源码资源进行课程实践、课外项目或毕业设计。通过分析和运行源码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程中,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保源码资源的可运行性和易用性,特别注意了以下几点:首先,每份源码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,源码中的注释和文档都非常完善,方便用户快速上手和理解代码;最后,我会定期更新这些源码资源,以适应各平台技术的最新发展和市场需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值