语义分割损失总结

年份

标题

是否采用辅助分类损失lossauxiliary

主损失lossmain

 

总loss

备注

CVPR 2015

Fully Convolutional Networks for Semantic Segmentation

Softmax loss

lossmain 

 

CVPR 2017

Semantic Segmentation--Pyramid Scene Parsing Network(PSPNet)

是/ Softmax loss, https://i-blog.csdnimg.cn/blog_migrate/266fd53d0ffe228c7cb38c1963fc4868.png

Softmax loss

lossmain  +0.4lossauxiliary

 

CVPR 2018

Context Encoding for Semantic Segmentation

Cross-entropy loss

Cross-entropy loss

lossmain  +0.2lossauxiliary

 

CVPR 2018

Convolutional Neural Networks with Alternately Updated Clique

Cross-entropy loss

lossmain 

 

CVPR 2018

DenseASPP for Semantic Segmentation in Street Scenes

 

Cross-entropy loss

 

lossmain 

 

CVPR 2018

Learning a Discriminative Feature Network for Semantic Segmentation

是/ semantic boundary loss(focal loss)

Cross-entropy loss

λ=0.1

semantic boundary loss的标签是由mask图像二值化提取canny边缘得到的,不是分类损失

2018

OCNet: Object Context Network for Scene Parsing

是/ Softmax loss,

Softmax loss

lossmain  +0.4lossauxiliary

 

2018

Pyramid Attention Network

for Semantic Segmentation

Softmax loss

lossmain

 

ECCV 2018

BiSeNet: Bilateral Segmentation Network for

Real-time Semantic Segmentation

是/ Softmax loss,

Softmax loss

α=1 K=3;Xi is the output feature from stage i of Xception model

 

 

Loss

公式

特点

Log loss

https://i-blog.csdnimg.cn/blog_migrate/321625d6f7ca1c401cc41a8557b32f6f.gif

可化为:

https://i-blog.csdnimg.cn/blog_migrate/8d9e40a4ad67bcddd7c2e323978aa30a.gif

当正样本数量远远小于负样本的数量时,即y=0的数量远大于y=1的数量,loss函数中y=0的成分就会占据主导,使得模型严重偏向背景。

所以对于背景远远大于目标的分割任务,Log loss效果非常不好

Dice Loss

定义两个轮廓区域的相似程度,用A、B表示两个轮廓区域所包含的点集,定义为:

https://i-blog.csdnimg.cn/blog_migrate/749230a23096e666fa2813bd666629f1.gif

loss为:

https://i-blog.csdnimg.cn/blog_migrate/21f8c94fc0a85564a9fd3dfd963fdf70.png

Dice Loss其实也可以分为两个部分,一个是前景的loss,一个是物体的loss,但是在实现中,往往只关心物体的loss

FocaL Loss

https://i-blog.csdnimg.cn/blog_migrate/c207b5399b40e8a07128f48e9bab936e.png

γ>0,论文中2为最优

  1. 首先在原有的基础上加了一个因子,其中γ>0使得减少易分类样本的损失。使得更关注于困难的、错分的样本

例如gamma为2,对于正类样本而言,预测结果为0.95肯定是简单样本,所以(1-0.95)的gamma次方就会很小,这时损失函数值就变得更小。而预测概率为0.3的样本其损失相对很大。对于负类样本而言同样,预测0.1的结果应当远比预测0.7的样本损失值要小得多。对于预测概率为0.5时,损失只减少了0.25倍,所以更加关注于这种难以区分的样本。这样减少了简单样本的影响,大量预测概率很小的样本叠加起来后的效应才可能比较有效。

  1. 此外,加入平衡因子α,用来平衡正负样本本身的比例不均。
  2. 只添加α虽然可以平衡正负样本的重要性,但是无法解决简单与困难样本的问题。

γ调节简单样本权重降低的速率,当γ为0时即为交叉熵损失函数,当γ增加时,调整因子的影响也在增加

 

  • 5
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值