损失函数(loss):预测值(y)与已知(y_)的差距
NN优化的目标:loss最小
- mse(Mean Squared Error)
- 自定义
- ce(Cross Entropy)
1. 均方误差mse:loss_mse = tf.reduce_mean(tf.square(y_-y))
2. 交叉熵损失函数CE: 表征两个概率分布之间的距离。
tf.losses.categorical_crossentropy(y_, y)
3. softmax与交叉熵结合:输出先过softmax函数,再计算y与y_的交叉熵损失函数。
tf.nn.softmax_cross_entropy_with_logits(y_, y)