tf.losses.log_loss(
labels, #真实的输出张量,与“predictions”相同.
predictions, #预测的输出.
weights=1.0, #可选的Tensor,其秩为0或与labels具有相同的秩,并且必须可广播到labels(即,所有维度必须为1,或者与相应的losses维度相同).
epsilon=1e-07, #要添加的小增量,以避免占用零的日志.
scope=None, #计算loss时执行的操作范围.
loss_collection=tf.GraphKeys.LOSSES, #将添加loss的集合.
reduction=Reduction.SUM_BY_NONZERO_WEIGHTS #适用于loss的减少类型.
)
计算labels和predictions的log损失(即交叉熵),后再乘以weights
log损失和交叉熵的关系可以看下面这篇博客
https://blog.csdn.net/google19890102/article/details/79496256