【计算机视觉】关于partial cross entropy loss
用于弱监督语义分割中的说明
弱监督标签
以两类别语义分割为例,背景和前景,给定的弱监督标签是只对前景个一小部分进行了标注。这个只是直接拿这个弱监督标签进行训练,会有一定的问题,因为大部分的前景标签都没有标注出来,所以前景类别会受到较大的抑制。
GT标签:
Weak标签:
采用 partial cross entropy loss
意思是只在有标注的像素上计算cross entropy loss
。前景目标为1,那么对应的 loss=-∑t_i*log(p_i)
, i
为像素索引, t_i
为对应的真实标签,p_i
为对应的分割输出是前景的概率。对比正常的cross entropy loss
,少了对于真实标签为0
的部分的loss计算:loss=-∑t_i*log(p_i)-∑(1-t_i)*log(1-p_i)
,也就是说认为弱标签只是提供了对前景的标注。因此,计算时只对有标注的像素计算损失。<