dice系数 交叉熵_二分类语义分割损失函数

本文介绍了二类图像语义分割任务中常用的损失函数,包括softmax交叉熵损失、Dice损失和二值交叉熵损失。Dice损失在应对类别分布不均衡问题上表现出优势,因为它考虑了预测与真实标签的交集占比,减少了主流类别对模型训练的主导影响。通常,Dice损失会与二值交叉熵结合以提高模型训练的稳定性。
摘要由CSDN通过智能技术生成

这里针对二类图像语义分割任务,常用损失函数有:

[1] - softmax 交叉熵损失函数(softmax loss,softmax with cross entroy loss)

[2] - dice loss(dice coefficient loss)

[3] - 二值交叉熵损失函数(bce loss,binary cross entroy loss).

其中,dice loss 和 bce loss 仅支持二分类场景.

对于二类图像语义分割任务,经常出现类别分布不均衡的问题,比如:工业产品的瑕疵检测、道路提取及病变区域提取等.

如,DeepGlobe比赛中道路提取(Road Extraction)中,训练数据道路占比为:4.5%. 如下为其图片样例, 可以看出道路在整张图片中的比例很小.

1. Dice Loss

Dice loss 有助于解决二分类语义分割中类别不均衡问题.

Dice loss 的定义如:

$$

diceloss = 1- \frac{2|Y \cap P|}{|Y| + |P|}

$$

其中,Y 表示 groundtruth,P表示预测结果. $| \cdot |$ 表示矩阵元素之和. $Y \cap P$ 表示 Y 和 P 的共有元素数,实际通过求两者的逐像素乘积之和进行计算. 例如:

其中,1 表示前景,0 表示背景.(GT图片中要求前景像素值为1,背景像素值为

  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值