比如图像是狗的概率为0.4,猫是0,真实概率狗为0,猫是1,那么cross entropy就是要量化预测概率和真实概率之间的差距,-(0 * log(0.4) + 1 * log(0.6)) = 0.22
, 作为一个极端的例子,请看:(0.001 * log(0.002) + 0.999 * log(0.998)) = 0.00356
, (0.001 * log(0.002) + 0.999 * log(0.998)) = 2.696
(第一个差距小,第二个差距大)
Sofmax中的交叉熵
最新推荐文章于 2024-06-28 13:30:09 发布