tf.nn.softmax_cross_entropy_with_logits函数在TensorFlow中计算分类问题交叉熵损失函数时会用到。
这个函数的返回值不是一个数,而是一个向量。如果要求最终的交叉熵损失,我们需要再做一步tf.reduce_sum操作,即对向量中的所有元素求和。
让我们以具体示例来说明tf.nn.softmax_cross_entropy_with_logits函数是怎样工作的:
————————————————
版权声明:本文为CSDN博主「烟雨风渡」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/tszupup/article/details/88805770