二元交叉熵 binary cross entropy
理解一下这个损失函数,一般来说,适用于二分类任务,但是在几个推荐系统的paper中看到了这个损失函数,先上公式:
L
o
s
s
=
−
1
N
∑
i
=
1
N
y
i
⋅
log
(
p
(
y
i
)
)
+
(
1
−
y
)
⋅
log
(
1
−
p
(
y
i
)
)
Loss=-\frac1N\sum_{i=1}^Ny_i \cdot\log(p(y_i))+(1-y)\cdot\log(1-p(y_i))
Loss=−N1i=1∑Nyi⋅log(p(yi))+(1−y)⋅log(1−p(yi))
其中,
y
i
=
{
0
,
1
}
y_i=\{0,1\}
yi={0,1}是二元标签,
p
(
y
)
p(y)
p(y)是输出属于
y
y
y标签的概率。
我们期望 y i = 1 y_i=1 yi=1的时候 p ( y ) p(y) p(y)越大越好,看一下理想情况: y y y是正例的时候, p ( y ) = 1 p(y)=1 p(y)=1,损失就是0;反过来看, p ( y ) p(y) p(y)趋于0, log p ( y ) \log p(y) logp(y)就趋于负无穷,导致损失非常大。