欢迎访问我的个人主页
tf.softmax_cross_entropy_with_logits()的计算过程一共分为两步:1.将logits转换成概率;2.计算交叉熵损失
1.将logits转换成概率
比如某个logits = [2, 7, 5],使用softmax将logits转换成概率,就是按照公式: e x ∑ e x \frac {e^x}{\sum e^x} ∑exex计算logits中每个元素的值:[ e 2 e 2 + e 7 + e 5 \frac {e^2}{e^2 + e^7 +e5} e2+e7+e5e2 , e 7 e