医学图像分割之--Tversky Loss

TverskyLoss提出的初衷是为了解决数据的类不平衡现象的,其在精度和召回率之间取得了较好的平衡

精度:预测正确的数量/所有的数量

召回率:预测正确的数量/所有正确的数量

如果不平衡标签,学习过程可能会收敛到次优损失函数的局部极小值,因此预测可能会强烈偏向非损伤组织。结果将是高精度、低召回率的分割

解决数据不平衡的一种常用方法,特别是体素方法,是从每个类中提取相等的训练样本。这种方法的缺点是它没有使用图像的所有信息内容,并且可能偏向于很少的类

Dice Loss是precision和recall的调和平均值,对FPs和FNs的权重相等。为了更好地权衡精确性和召回率(FPs与FNs),我们提出了基于Tversky相似性指数的损失层。Tversky指数是骰子相似系数和Fβ得分的推广。下面介绍如何调整这个损失函数的超参数,以便在训练一个高度不平衡的数据中表现良好的网络时将重点放在假阴性。

方法

设P和G分别是预测值和真实值Ground truth值的集合,则Dice相似度系数表示为:

D(P,G)=\frac{|PG|}{|P|+|G|}

上面这个式子中的FPS(精确率)和FNs(召回率)的权重是相同的,为了使得在训练过程中召回率的权重高于精确率,基于Tversky系数提出了一个损失层,Tiversky index定义如下:

S(P,G,\alpha ,\beta )=\frac{|PG|}{|PG|+\alpha |P/G|+\beta |G/P|}

其中α和β分别控制着精确率和召回率的惩罚大小。

Tversky Loss损失函数的定义为:

其中

通过调整超参数α和β,我们可以控制假阳性和假阴性之间的权衡。

值得注意的是,在α=β=0.5时 Tversky指数为与Dice系数相同,也等价于 F1 score。当α=β=1时,等式2产生Tanimoto系数,设置α+β=1产生Fβ scores。βs越大,召回率越高(通过更加强调假阴性)。我们假设在我们的广义损失函数中使用更高的βs将导致对不平衡数据的更高的泛化和更好的性能,并有效地帮助我们将重点转移到降低FNs和提高召回率。

F1-socre是精确率和召回率的调和平均数

Tanimoto系数可以判断两个数据的相关程度,Tanimoto系数可以表示为两个集合的交集比上两个集合的并集。举例:
两个人拥有相同的东西/两个人所有的东西
可以看出两个人的相关程度,如果拥有相同东西越多表明两个人的兴趣爱好越相同(一般情况下)

  • 4
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Tversky损失函数是一种用于计算目标检测任务中的损失的方法。它基于Tversky相似性指数,该指数是骰子相似系数和Fβ得分的推广。Tversky损失函数的目的是在训练高度不平衡的数据时,更加关注假阴性的情况,以平衡精确性和召回率。\[1\] Tversky损失函数的实现代码如下: ```python def tversky_loss(inputs, targets, beta=0.7, weights=None): batch_size = targets.size(0) loss = 0.0 for i in range(batch_size): prob = inputs\[i\] ref = targets\[i\] alpha = 1.0-beta tp = (ref*prob).sum() fp = ((1-ref)*prob).sum() fn = (ref*(1-prob)).sum() tversky = tp/(tp + alpha*fp + beta*fn) loss = loss + (1-tversky) return loss/batch_size ``` 该函数接受输入和目标张量,并计算Tversky损失。其中,inputs是模型的输出,targets是真实的目标标签。beta是Tversky指数的参数,用于平衡精确性和召回率。weights是一个可选的权重张量,用于对不同类别的样本进行加权处理。\[1\] 另外,还有一种与Tversky损失函数相关的Dice Loss。Dice Loss是precision和recall的调和平均值,对FPs和FNs的权重相等。为了更好地权衡精确性和召回率,可以使用基于Tversky相似性指数的损失层。\[2\]这种方法可以通过调整超参数来适应不同的训练需求,特别是在处理高度不平衡的数据时。\[3\] #### 引用[.reference_title] - *1* [Pytorch tversky损失函数](https://blog.csdn.net/u014687517/article/details/90216095)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [分割网络损失函数总结!交叉熵,Focal loss,Dice,iou,TverskyLoss!](https://blog.csdn.net/jijiarenxiaoyudi/article/details/128360405)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [医学图像分割之--Tversky Loss](https://blog.csdn.net/weixin_43921949/article/details/127708702)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值