focal loss 的 二分类以及多分类实现

1、tf 版本

# 二分类
def binary_focal_loss(gamma=2, alpha=0.25):
    alpha = tf.constant(alpha, dtype=tf.float32)
    gamma = tf.constant(gamma, dtype=tf.float32)
    def focal_loss_sigmoid(y_true, y_pred):
        labels = tf.cast(y_true, tf.float32)
        L=-labels*(1-alpha)*((1-y_pred)**gamma)*K.log(y_pred)-\
          (1-labels)*alpha*(y_pred**gamma)*K.log(1-y_pred)
        return L    
    return focal_loss_sigmoid

2、torch 版本

class FocalLoss(nn.Module):
    def __init__(self, gamma = 2, alpha = 1, size_average = True):
        super(FocalLoss, self).__init__()
        self.gamma = gamma
        self.alpha = alpha
        self.size_average = size_average
        self.elipson = 0.000001
    
    def forward(self, logits, labels):
        """
        cal culates loss
        logits: batch_size * labels_length * seq_length
        labels: batch_size * seq_length
        """
        if labels.dim() > 2:
            labels = labels.contiguous().view(labels.size(0), labels.size(1), -1)
            labels = labels.transpose(1, 2)
            labels = labels.contiguous().view(-1, labels.size(2)).squeeze()
        if logits.dim() > 3:
            logits = logits.contiguous().view(logits.size(0), logits.size(1), logits.size(2), -1)
            logits = logits.transpose(2, 3)
            logits = logits.contiguous().view(-1, logits.size(1), logits.size(3)).squeeze()
        assert(logits.size(0) == labels.size(0))
        assert(logits.size(2) == labels.size(1))
        batch_size = logits.size(0)
        labels_length = logits.size(1)
        seq_length = logits.size(2)

        # transpose labels into labels onehot
        new_label = labels.unsqueeze(1)
        label_onehot = torch.zeros([batch_size, labels_length, seq_length]).scatter_(1, new_label, 1)

        # calculate log
        log_p = F.log_softmax(logits)
        pt = label_onehot * log_p
        sub_pt = 1 - pt
        fl = -self.alpha * (sub_pt)**self.gamma * log_p
        if self.size_average:
            return fl.mean()
        else:
            return fl.sum()

 

  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 6
    评论
二分类的Focal Loss是一种针对于类别不平衡问题的损失函数,它通过调节正负样本的权重来缓解类别不平衡问题。下面是二分类场景下Focal Loss的原理解释和Pytorch实现的步骤: 1. Focal Loss的原理解释 在二分类场景下,Focal Loss的计算公式如下: $FL(p_t) = -\alpha_t(1-p_t)^\gamma log(p_t)$ 其中,$p_t$表示模型预测样本为正样本的概率,$\alpha_t$表示样本的权重,$\gamma$是一个可调节的超参数,用于调节难易样本的权重。当$\gamma=0$时,Focal Loss退化为交叉熵损失;当$\gamma>0$时,Focal Loss会降低易分类样本的权重,增加难分类样本的权重,从而提高模型对于难分类样本的学习能力。 2. Pytorch实现二分类Focal Loss的步骤 (1)定义Focal Loss类 ```python import torch.nn as nn import torch.nn.functional as F class BinaryFocalLoss(nn.Module): def __init__(self, alpha=0.25, gamma=2): super(BinaryFocalLoss, self).__init__() self.alpha = alpha self.gamma = gamma def forward(self, inputs, targets): BCE_loss = F.binary_cross_entropy_with_logits(inputs, targets, reduction='none') pt = torch.exp(-BCE_loss) FL_loss = self.alpha * (1 - pt) ** self.gamma * BCE_loss return FL_loss.mean() ``` (2)调用Focal Loss类 ```python import torch # 定义模型输出和标签 inputs = torch.randn(3, 1, requires_grad=True) targets = torch.tensor([1, 0, 1]) # 定义Focal Loss riterion = BinaryFocalLoss(alpha=0.25, gamma=2) # 计算损失 loss = criterion(inputs, targets) print(loss) ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

samoyan

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值