tf.losses.softmax_cross_entropy(): softmax cross-entropy loss (用tf.nn.softmax_cross_entropy_with_logits 实现)
tf.losses.sparse_softmax_cross_entropy(): 稀疏softmax Cross-entropy loss (用 tf.nn.sparse_softmax_cross_entropy_with_logits 实现)
注意1,使用这两种Losses函数,网络的最后都不需要加上softmax函数。
注意2,在sparse_softmax_cross_entropy(),输入的label为 tf.argmax(Y, axis=1)