Tensor为张量,flow为流图。
Tensorflow内含有很多写好的工具,如梯度下降算法,卷积操作等。
在使用Tensorflow时,先导入包import Tensorflow as tf,在进行定义tensorflow变量时,使用tf.Variable(参数),有趣的是一个叫做占位符的工具,tf.placeholder(shape)申请一个占位符,这类似设置了一个shape已经知道的未知变量,在后面可以使用feed_dict={占位符:参数}来对占位符进行赋值。这个op在写完后徐要需要Session来进行运行,sess = tf.Session()申请会话,最后通过sess.run(要运行的内容)方法来完成计算。
Tensorflow 简单神经网络案例:
内容:通过简单的神经网络来实现识别Mnist手写字体。图片长宽都为28,通道为1。
y = xw+b
x=先设这个数据集为一个长为任何长度,宽为28*28的矩阵。
w=再设置权重参数wij,wij为长度为28*28,宽为10的矩阵。
b=然后添加一个长度为10的偏置项
然后通过交叉熵来作为损失函数,进行迭代,使损失函数逐步减小。
代码实现:
import tensorflow as tf
# 申请x占位符,None表示任意长度。
x = tf.placeholder(tf.float32, [None, 28*28])
w = tf.Variable(tf.zeros[28*28, 10])
b = tf.Variable(tf.zeros[10])
#建立方程 y = xw+b
y = tf.nn.sotfmax(tf.matmul(x, w) + b)
#申请对应的标签占位符
y_ = tf.placeholder("float", [None, 10] )
#交叉熵作为损失函数
cross_entropy = tf.reduce_sum(y_*tf.log(y))
#梯度下降算法 学习率=0.01
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)
init = tf.initialize_all_variables()
#创建Session
sess = tf.Session()
#初始化所有参数
sess.run(init)
#导入数据集 数据集地址在本地的/home/enche/MNIST_data目录下
import tensorflow.examples.tutorials.mnist.input_data as input_data
mnist = input_data.read_data_sets("/home/enche/MNIST_data", one_hot = True)
#将x和y_进行替换成训练数据
for i in range(1000):
batch_xs, batch_ys = minist.train.next_batch(100)
sess.run(train_step, feed_dict = {x:batch_xs, y_:batch_ys})
#打印变量
print sess.run(w)
问题:在打印变量时,因为默认情况不会打印出所有矩阵参数,可以通过设置
import numpy as np
np.set_printoptions(threshold=np.inf)
实现打印所有内容,解决出现省略号的问题。