交叉熵常用于分类任务中,如有一张牛的图片,经过一个神经网络,softmax函数输出牛的概率为0.8,羊的概率为0.1,猴的概率为0.1。右侧对应于该图片的groundTrue图片采用One-hot编码为100.
如何衡量模型输出与标签之间的差距呢?
- 标签为100,只有样本one-hot为1的的类别才产生Loss损失。
- 只有当预测概率为1时,loss值才为0,对真实样本预测值越低loss函数值越大。
- 由于log在[0,1]区间函数值为负值,所以在Loss函数前加 –号。
交叉熵常用于分类任务中,如有一张牛的图片,经过一个神经网络,softmax函数输出牛的概率为0.8,羊的概率为0.1,猴的概率为0.1。右侧对应于该图片的groundTrue图片采用One-hot编码为100.
如何衡量模型输出与标签之间的差距呢?