前言
最近GAN网络频频报出喜人的成果,奈何Caffe目前并不能很好的实现这种网络的思想。所以,博主寻思着找个好学、好用又高效的工具。Google开源的TensorFlow立刻吸引了博主的目光。网上学习材料很多,但总对着电脑屏幕实在难受,博主就入手了一本黄文坚写的《TensorFlow实战》,以求快速入门(微笑脸)。
Tensorflow介绍
Google在2015年11月在github上开源的分布式机器学习系统TensorFlow 面向从事机器学习工作者,旨在借助社区力量共同维护TensorFlow同时回馈社区。
TensorFlow的关键词主要有:
- 计算图
- 自动求导
- 并行计算
- 数据并行
- 模型并行
- 流水线并行
入门模型训练
MNIST作为深度学习新手的入门模型很适合,一个是数据量少,需要的计算能力不高;另一点是模型简单,易于实现。
训练模型通常需要四个步骤:
- 定义网络结构
- 选择损失函数(Loss/Cost function)
- 输入数据
- 测试
下面我们就按照这四个步骤来进行入门学习。
定义网络结构
《TensorFlow实战》中,MNIST只使用了一个全连接层来作为例子。
#导入tensorflow库
import tensorflow as tf
#声明一个默认的session, 用于网络运算
sess = tf.InteractiveSession()
#声明一个placeholder来输入数据,None表示不限输入数量,784表示每条输入的维度
x = tf.placeholder(tf.float32, [None, 784])
#声明参数, 仅一层全连接层
w = tf.Variable(tf.zeros([784, 10])
b = tf.Variable(tf.zeros([10]))
y = tf.nn.softmax(tf.matmult(w,x) +b)
#输入真实标签的地方
y_ = tf.placeholder(tf.float32, [None, 10])
选择损失函数、输入数据
#选择损失函数,这里用softmax loss
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_*tf.log(y), reduction_indices=[1]))
learning_rate = 0.5
#选择优化算法,这里用梯度下降方法, learning_rate:学习率;cross_entropy:损失函数
train_step = tf.train.GradientDescentOptimizer(learning_rate).minimize(cross_entropy)
#初始化参数
tf.global_variables_initializer().run()
#最大迭代次数
max_iter = 100
#读取训练数据集
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)
#开始训练
for i in range(max_iter):
#读取训练数据
batch_xs, batch_ys = mnist.train.next_batch(100)
train_step.run({x: batch_xs, y_: batch_ys})
测试
#接下来进行模型测试
correct_prediction = tf.equal(tf.argmax(y_,1), tf.argmax(y, 1))
#计算准确率,先把correct_prediction转化成浮点型,计算均值
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
#输出准确率
print accuracy.eval({x: mnist.test.images, y_:mnist.test.labels})
至此,一个简单的MNIST手写字体识别网络就搭建好了。
本博客为博主学习《TensorFlow实战》所做笔记,细节请参看原书。
2017-5-11 记