【TensorFlow】tf.nn.softmax_cross_entropy_with_logits的用法
一、tf.nn.softmax_cross_entropy_with_logits: 在计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,那么它到底是怎么做的呢?首先明确一点,loss是代价值,也就是我们要最小化的值tf.nn.softmax_cross_entropy_with_logits(logits, labels...
转载
2018-05-15 20:36:52 ·
210 阅读 ·
0 评论