Tensorflow版本的Focal loss

本文介绍了Tensorflow中Focal Loss的实现,包括logits、prob和prediction的区别,并详细解析了Focal Loss如何通过调整因子解决简单样本过多导致的优化难题,以及alpha和gamma参数的作用。
摘要由CSDN通过智能技术生成

Tensorflow版本的Focal loss

1、区分logits,prob,prediction

logits: 是网络的原始输出,从代码中可以简单的理解为 logits = f (x, w) + bais。通常来说,输出的logits的维度是(batch_size, class_num)。

prob: 代表的是在分类输出时,每一个类别的概率。概率的总和为1。通常来讲,prob是logits经过softmax得到的概率分布。prob = softmax ( logits ),通常为(batch_size, class_num)。

prediction: 它是logits通过argmax之后的输出,通常为(batch_size)。

不同的loss函数要求的输入是不一样的,在focal loss 损失函数中的输入则是为最原始的输出logits

2、focal loss 损失函数

​ 首先,我们得知道focal loss 其实是在交叉熵的损失函数的基础上进行修改的,首先看一下交叉熵的loss

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-PRFs5xjm-1594740797512)(C:\Users\12617\Desktop\auxiliary network\7.13\b1.png)]

其中 y’ 是经过softmax函数的输出,所以在0-1之间。可见普通的交叉熵对于正样本而言,输出概率越大损失越小。对于负样本而言,输出概率越小则损失越小。此时的损失函数在大量简单样本的迭代过程中比较缓慢且可能无法优化至最优。那么Focal loss是怎么改进的呢?

在这里插入图片描述

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Ek1uZxnr-1594740797518)(C:\Users\12617\Desktop\auxiliary network\7.13\b3.png)]

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值