多分类focal loss

Focal Loss的介绍见 Focal Loss(RetinaNet)原理与代码解析_00000cj的博客-CSDN博客

from sklearn.preprocessing import LabelBinarizer
from math import log

import tensorflow as tf
import os
os.environ['CUDA_VISIBLE_DEVICES'] = str(0)
tf.enable_eager_execution()

labels = ['0', '1', '2', '3', '4', '5', '6', '7', '8', '9']  # 所有标签
y_true = ['1', '4', '5']  # 样本的真实标签
y_pred = [[0.1, 0.6, 0.3, 0, 0, 0, 0, 0, 0, 0],
          [0, 0.3, 0.2, 0, 0.5, 0, 0, 0, 0, 0],
          [0.6, 0.3, 0, 0, 0, 0.1, 0, 0, 0, 0]]  # 样本的预测概率

lb = LabelBinarizer()
lb.fit(labels)
transformed_labels = lb.transform(y_true)
# print(transformed_labels)
# [[0 1 0 0 0 0 0 0 0 0]
#  [0 0 0 0 1 0 0 0 0 0]
#  [0 0 0 0 0 1 0 0 0 0]]

""" multiclass cross-entropy loss """
N = len(y_true)  # 样本个数
K = len(labels)  # 标签个数

eps = 1e-15      # 预测概率的控制值
Loss = 0         # 损失值初始化

for i in range(N):
    for k in range(K):
        # 控制预测概率在[eps, 1-eps]内,避免求对数时出现问题
        if y_pred[i][k] < eps:
            y_pred[i][k] = eps
        if y_pred[i][k] > 1-eps:
            y_pred[i][k] = 1-eps
        # 多分类问题的交叉熵计算公式
        Loss -= transformed_labels[i][k] * log(y_pred[i][k])

Loss /= N  # 交叉熵loss


""" multiclass focal loss"""
epsilon = 1e-9
y_true = transformed_labels
gamma = 2
alpha = 4
# alpha = [0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1]

y_true = tf.convert_to_tensor(y_true, tf.float32)
y_pred = tf.convert_to_tensor(y_pred, tf.float32)

model_out = tf.add(y_pred, epsilon)
ce = tf.multiply(y_true, -tf.log(model_out))

weight = tf.multiply(y_true, tf.pow(tf.subtract(1., model_out), gamma))

fl = tf.multiply(alpha, tf.multiply(weight, ce))
reduced_fl = tf.reduce_max(fl, axis=1)
focal_loss = tf.reduce_mean(reduced_fl)

参考

多分类问题的交叉熵计算 - SegmentFault 思否

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论
以下是多分类focal loss的代码示例: ```python import torch import torch.nn as nn class FocalLoss(nn.Module): def __init__(self, alpha=1, gamma=2, reduction='mean'): super(FocalLoss, self).__init__() self.alpha = alpha self.gamma = gamma self.reduction = reduction def forward(self, inputs, targets): ce_loss = nn.CrossEntropyLoss(reduction='none')(inputs, targets) pt = torch.exp(-ce_loss) focal_loss = self.alpha * (1-pt)**self.gamma * ce_loss if self.reduction == 'mean': return torch.mean(focal_loss) elif self.reduction == 'sum': return torch.sum(focal_loss) else: return focal_loss ``` 在这个代码中,我们定义了一个名为FocalLoss的类,它继承了nn.Module。在这个类的初始化函数中,我们定义了alpha和gamma参数,它们分别控制了类别权重和难易样本权重的影响。我们还定义了reduction参数,它决定了Focal Loss的计算方式,可以是'mean'、'sum'或者'none'。 在类的forward函数中,我们首先计算了交叉熵损失(CrossEntropyLoss)并使用reduction='none'来得到每个样本的损失值。然后,我们计算了每个样本的pt值,用于计算Focal Loss。最后,我们根据reduction参数返回平均值、总和或者每个样本的Focal Loss。 使用该类时,我们只需要在模型中调用它即可,例如: ```python loss_fn = FocalLoss(alpha=1, gamma=2, reduction='mean') optimizer = torch.optim.Adam(model.parameters(), lr=0.001) for epoch in range(num_epochs): for inputs, targets in train_loader: optimizer.zero_grad() outputs = model(inputs) loss = loss_fn(outputs, targets) loss.backward() optimizer.step() ``` 在这个例子中,我们使用Adam优化器训练模型,并在每个epoch中遍历train_loader中的数据。在每个batch中,我们计算模型输出outputs和目标targets的Focal Loss,并通过反向传播和优化器更新模型参数。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

00000cj

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值