tensorflow实现简单的卷积神经网络

1.卷积神经网络(Convolutional Neural Network ,CNN)

优点:

(1)直接使用图像的原始像素作为输入,不必先使用SIFT等算法提取特征,减少了大量重复、繁琐的数据预处理工作;

(2)卷积神经网络训练的模型对缩放、平移、旋转等畸变具有不变性,有很强的泛化性;

(3)卷积神经网络最大的特点是卷积的权值共享结构,大幅减少神经网络的参数量,防止过拟合的同时又降低神经网络模型的复              杂度。

          ……

所以,这也是卷积神经网络这么火的原因吧。

2.tensorflow实现简单的卷积神经网络的代码实现

(1)环境:Ubuntu16.04 + Python3.5 + tensorflow 1.14的CPU(或者GPU,笔者的是CPU,不得不说,真的很慢)

(2)CNN的简单网络模型:两个卷积层 + 一个全连接层

(3)代码实现(来自TensorFlow的开源实现):

/*导入tensorflow,创建路径,载入数据集*/
from tensorflow.examples.tutorials.mnist import input_data
import tensorflow as tf
mnist = input_data.read_data_sets("MNIST_data",one_hot = True)/*第一个参数是路径*/

/*创建默认的Interactive session,之后的运算默认跑在这个session中,不同的session中的运算和数据是相互独立的*/
sess = tf.InteractiveSession()

/*卷积神经网络有很多的权重和偏置需要创建,需要先定义好初始化函数,方便重复使用,越复杂的神经网络,初始化函数越复杂,也越重要。给权重制造一些随机的噪声打破完全对称,如截断的正态分布噪声,标准差设为0.1,给偏置增加小的正值,避免死亡节点*/
def weight_variable(shape):
    initial = tf.truncated_normal(shape, stddev=0.1)
    return tf.Variable(initial)

def bias_variable(shape):
    initial = tf.constant(0.1, shape = shape)
    return tf.Variable(initial)
/*定义卷积层和池化层的函数,tf.nn.conv2d是tensorflow中的2维卷积函数,参数中,x是输入,W是卷积的参数,如[5,5,1,32],前面两个数字代表卷积核的尺寸,第3个是通道(channel)的数量,如果是灰度单色,就是1,如果是RGB,就是3,最后一个数字代表卷积核的数量,即这个卷积核会提取多少类的特征。strides代表卷积模板移动的步长,都是1代表会划过图片的每一个点。padding代表边界的处理方式,SAME代表给边界加上padding,使输入和输出保持同样的尺寸。tf.nn.max_pool是tensorflow的最大池化函数,使用2X2的最大池化,将2X2的像素块将为1X1的,最大池化会保留原始像素块中灰度值最高的那个像素,即保留最显著特征*/
def conv2d(x, W):
    return tf.nn.conv2d(x, W, strides = [1,1,1,1], padding = 'SAME')

def max_pool_2X2(x):
    return tf.nn.max_pool(x, ksize = [1,2,2,1], strides = [1,2,2,1], passing = 'SAME')

/*先创建输入数据的地方placeholder,第一个参数是数据类型,第二个[None, 784],代表tensor的shape,即数据尺寸。x是特征,y_是真实的label*/
x = tf.placeholder(tf.float32, [None,784])
y_ = tf.placeholder(tf.float32, [None,10])

/*卷积神经网络要用到空间结构信息,因此要把1维的输入向量转为2维的图片结构,即从1X784-->28X28,-1代表样本数量不固定,最后的1是指通道数量为1*/
x_image = tf.reshape(x, [-1,28,28,1])

/*定义第一个卷积层,ReLU为激活函数,进行非线性处理*/
W_conv1 = weight_variable([5,5,1,32])
b_conv1 = bias_variable([32])
h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)
h_pool1 = max_pool_2X2(h_conv1)

/*定义第二个卷积层,卷积核数量变成了64,其他一样*/
W_conv2 = weight_variable([5,5,1,64])
b_conv2 = bias_variable([64])
h_conv2 = tf.nn.relu(conv2d(x_image, W_conv2) + b_conv2)
h_pool2 = max_pool_2X2(h_conv2)

/*前面使用两次2X2的最大池化,现在边长为之前的1/4,即28X28 --> 7X7,两次卷积之后,输出的tensor尺寸为7X7X64,使用tf.reshape函数对输出进行变形处理,转为1维向量,然后连接一个全连接层,隐含结点为1024,最后使用relu激活函数*/

W_fc1 = weight_variable([7 * 7 * 64, 1024])
b_fc1 = bias_variable([1024])
h_pool2_flat = tf.reshape(h_pool2,[-1,7 * 7 * 64])
h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat,W_fc1) + b_fc1)

/*使用Dropout层,减轻过拟合*/
keep_prob = tf.placeholder(tf.float32)
h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)

/*最后将dropout的输出连接到Softmax层,得到概率输出*/
W_fc2 = weight_variable([1024,10])
b_fc2 = bias_variable([10])
y_conv = tf.nn.softmax(tf.matmul(h_fc1_drop, W_fc2) + b_fc2)

/*定义损失函数cross_entropy,优化器使用Adam,学习速率为1e-4*/
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y_conv),reduction_indices=[1]))
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)

/*定义评测准确率*/
correct_prediction = tf.equal(tf.argmax(y_conv,1) tf.argmax(y_,1))
accuracy = tf.reduce.mean(tf.cast(correct_prediction, tf.float32))

/*开始训练,首先初始化所有参数,使用大小为50的mini-batch,进行20000次迭代,训练的样本共100万*/
tf.initialize_all_variable().run()
for i in range(20000):
    batch = mnist.train.next_batch(50)
    if i%10 ==0:
        train_accuracy = accuracy.eval(feed_dict=        {x:batch[0],y_:batch[1],keep_prob:1.0})
        print("step %d, training accuracy %g" %(i, train_accuracy))
    train_step.run(feed_dict={x:batch[0], y_:batch[1], keep_prob:0.5})

/*全部训练完成,得到整体的分类准确率*/
print("test accuracy %g"%accuracy.eval(feed_dict={x:mnist.test.images, y_:mnist.test.labels, keep_prob: 1.0})

(4)最终结果,这个简单的CNN模型的准确率约为99.2%,在tensorflow的CPU版本上面运行,时间比较久,在GPU版本上面就快很多了。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

唯一的阿金

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值