pytorch版本的多分类focal loss

文章目录


正文

代码参照某博主大佬写的。使用时有报错就自己改了改。

 logits = logits[..., None]
 labels = labels[..., None]

因为我的网络输出是二维的,label是一维的。所以上述改了一下。

device=logits.device

因为训练时报错说loss数据不在同一个空间,所以上面把device设置一下。全部代码如下:

import torch
from torch import nn
import torch.nn.functional as F


class FocalLoss(nn.Module):
    def __init__(self, gamma=2, alpha=1, size_average=True):
        super(FocalLoss, self).__init__()
        self.gamma = gamma
        self.alpha = alpha
        self.size_average = size_average
        self.elipson = 0.000001

    def forward(self, logits, labels):
        """
        cal culates loss
        logits: batch_size * labels_length * seq_length
        labels: batch_size * seq_length
      """
        logits = logits[..., None]
        labels = labels[..., None]
        if labels.dim() > 2:
            labels = labels.contiguous().view(labels.size(0), labels.size(1), -1)
            labels = labels.transpose(1, 2)
            labels = labels.contiguous().view(-1, labels.size(2)).squeeze()
        if logits.dim() > 3:
            logits = logits.contiguous().view(logits.size(0), logits.size(1), logits.size(2), -1)
            logits = logits.transpose(2, 3)
            logits = logits.contiguous().view(-1, logits.size(1), logits.size(3)).squeeze()
        assert (logits.size(0) == labels.size(0))
        assert (logits.size(2) == labels.size(1))
        batch_size = logits.size(0)
        labels_length = logits.size(1)
        seq_length = logits.size(2)

        # transpose labels into labels onehot
        new_label = labels.unsqueeze(1)
        label_onehot = torch.zeros([batch_size, labels_length, seq_length], device=logits.device).scatter_(1, new_label, 1)

        # calculate log
        log_p = F.log_softmax(logits)
        pt = label_onehot * log_p
        sub_pt = 1 - pt
        fl = -self.alpha * (sub_pt) ** self.gamma * log_p
        if self.size_average:
            return fl.mean()
        else:
            return fl.sum()


Focal Loss是一种用于处理类别不平衡问题的损失函数。在训练深度学习模型时,由于数据集中不同类别的样本数量往往存在较大的差异,因此训练出的模型容易出现对数量较大的类别表现良好,对数量较小的类别表现较差的情况。Focal Loss通过调整样本的权重,使得模型更加关注难以分类的样本,从而提高模型在数量较小的类别上的性能。 下面是使用PyTorch实现多分类Focal Loss的代码: ``` import torch import torch.nn as nn import torch.nn.functional as F class FocalLoss(nn.Module): def __init__(self, alpha=1, gamma=2, reduction='mean'): super(FocalLoss, self).__init__() self.alpha = alpha self.gamma = gamma self.reduction = reduction def forward(self, inputs, targets): ce_loss = F.cross_entropy(inputs, targets, reduction='none') pt = torch.exp(-ce_loss) focal_loss = self.alpha * (1 - pt) ** self.gamma * ce_loss if self.reduction == 'mean': return torch.mean(focal_loss) elif self.reduction == 'sum': return torch.sum(focal_loss) else: return focal_loss ``` 在这里,我们定义了一个名为FocalLoss的自定义损失函数,并在其构造函数中定义了三个参数。alpha参数用于平衡每个类别的权重,gamma参数用于调整样本难度的权重,reduction参数用于指定损失函数的计算方式(mean或sum)。 在forward函数中,我们首先计算普通的交叉熵损失(ce_loss),然后计算每个样本的难度系数(pt),最后计算Focal Loss(focal_loss)。最后根据reduction参数的设定,返回损失函数的值。 在使用Focal Loss时,我们需要在训练过程中将损失函数替换为Focal Loss即可。例如,如果我们使用了PyTorch的nn.CrossEntropyLoss作为损失函数,我们可以将其替换为FocalLoss: ``` criterion = FocalLoss(alpha=1, gamma=2) ``` 这样,在训练过程中就会使用Focal Loss作为损失函数,从而提高模型在数量较小的类别上的性能。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值