在tensorflow中实现完整的机器学习或神经网络算法的步骤
无赖的我又来了,歌词分享环节哦
《不染》
一场回忆 生生灭灭 了了心扉
再回首浅尝心酒余味
本篇主要讲解如何在tensorflow中实现一个完整的机器学习算法,以下是主要步骤:
1. 实现神经网络结构或机器学习算法函数。
2. 定义误差函数
3. 定义训练函数
4. 定义算法评估函数
5. 利用以上几个函数在sess中实现完整的程序
读到这,可能有点晕,没关系,下面用例子来介绍:
下面在mnist数据集上利用逻辑回归模型实现手写字体的识别,讲述整个实现过程。
逻辑回归模型的实现
将单层网络( y=wx+b y = w x + b ,逻辑回归)的输出经过softmax分类函数输出结果网络结构
softmax:
tensorflow softmax函数 tf.nn.softmax函数说明
def inference(input_x): ''' @param: input_x: [batch, 28*28] return: out: [batch, 10] ''' w_init = tf.random_normal_initializer(stddev=(2.0 / 784) ** 0.5) W = tf.get_variable('W', [784, 10], initializer=w_init) b_init = tf.constant_initializer(value=0) b = tf.get_variable('b', initializer