理解包含在这些代码里面的设计思想是非常重要:
TensorFlow工作流程 和 机器学习的基本概念。
在此张量里的每一个元素,都表示某张图片里的某个像素的强度值,值介于0和1之间。
一个one-hot向量除了某一位的数字是1以外其余各维度数字都是0。
Softmax回归介绍
softmax模型可以用来给不同的对象分配概率。
即使在之后,我们训练更加精细的模型时,最后一步也需要用softmax来分配概率。
也需要加入一个额外的偏置量(bias),因为输入往往会带有一些无关的干扰量。
这里的softmax可以看成是一个激励(activation)函数或者链接(link)函数,把我们定义的线性函数的输出转换成我们想要的格式,
一个Variable代表一个可修改的张量,存在在TensorFlow的用于描述交互性操作的图中。
对于各种机器学习应用,一般都会有模型参数,可以用Variable表示。
计算交叉熵:cross_entropy = -tf.reduce_sum(y_*tf.log(y))
首先,用 tf.log 计算 y 的每个元素的对数。接下来,我们把 y_ 的每一个元素和 tf.log(y_) 的对应元素相乘。最后,用 tf.reduce_sum 计算张量的所有元素的总和。(注意,这里的交叉熵不仅仅用来衡量单一的一对预测和真实值,而是所有100幅图片的交叉熵的总和。对于100个数据点的预测表现比单一数据点的表现能更好地描述我们的模型的性能。
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)
在这里,我们要求TensorFlow用梯度下降算法(gradient descent algorithm)以0.01的学习速率最小化交叉熵。梯度下降算法(gradient descent algorithm)是一个简单的学习过程,TensorFlow只需将每个变量一点点地往使成本不断降低的方向移动。当然TensorFlow也提供了其他许多优化算法:只要简单地调整一行代码就可以使用其他的算法。
tf.argmax
是一个非常有用的函数,它能给出某个tensor对象在某一维上的其数据最大值所在的索引值