分类问题常用的损失函数及pytorch实现

前言:
分类问题和回归问题是监督学习的两大种类,关于回归使用的损失函数: 点击链接.
而分类问题一般分为二分类和多分类,下面我们看看在分类问题中使用的损失函数。

1、二分类问题

(1)交叉熵损失函数

在二分类问题中,损失函数一般为交叉熵损失函数。如下面公式,是对于单个样本的损失函数。
在这里插入图片描述
下面是多个样本例子,即mini-batch的损失函数。
在这里插入图片描述
在这里插入图片描述

(2)pytorch实现

CLASS torch.nn.BCELoss(weight=None, size_average=None, reduce=None, reduction='mean')

上面这个就是二分类交叉熵pytorch封装的类。

参数:

weight (Tensor, optional) -对每个批次元件的损失进行手动重标定。如果给定,必须是一个大小为n*batch的张量。
size_average (bool, optional) – 默认情况下,损失是对批处理中的每个损失元素进行平均。注意,对于一些损失,每个样本有多个元素。如果字段size_average被设置为False,则对每个小批处理的损失进行累加。当reduce为False时被忽略。默认值:True
reduce (bool, optional) –默认情况下为True,损失根据size_average对每个小批的观察值进行平均或求和。当reduce为False时,返回每个批处理元素的损失并忽略size_average。
reduction (string, optional) -指定要应用于输出的减少数,值可以为’none’ 或 ‘mean’ 或’sum’。“none”:不进行降价;“mean”:输出的总和除以输出元素的数量;‘sum’:对输出进行求和。注意:这是在size_average和reduce没有使用的时候,同时,指定这两个参数中的任何一个都将覆盖reduction。默认值:“mean”。

例子:

>>> import torch
>>> import torch.nn as nn
>>> m = nn.Sigmoid()
>>> loss = nn.BCELoss() # 没有参数,用的是默认值
>>> input =
  • 2
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PyTorch是一个流行的深度学习框架,可以用于实现各种损失函数,包括GHM损失函数。GHM(Gradient Harmonized Mixture)损失函数是一种用于解决样本不平衡问题损失函数。 下面是使用PyTorch实现二分类GHM损失函数的示例代码: ```python import torch import torch.nn as nn class GHMLoss(nn.Module): def __init__(self, bins=10, momentum=0): super(GHMLoss, self).__init__() self.bins = bins self.momentum = momentum self.edges = torch.arange(bins+1).float() / bins self.edges[-1] += 1e-6 if momentum > 0: self.acc_sum = torch.zeros(bins) def forward(self, pred, target): g = torch.abs(pred.detach() - target) weights = torch.zeros_like(g) tot = g.numel() n = 0 for i in range(self.bins): inds = (g >= self.edges[i]) & (g < self.edges[i+1]) num_in_bin = inds.sum().item() if num_in_bin > 0: if self.momentum > 0: self.acc_sum[i] = self.momentum * self.acc_sum[i] + (1 - self.momentum) * num_in_bin weights[inds] = tot / self.acc_sum[i] else: weights[inds] = tot / num_in_bin n += 1 weights /= n loss = nn.BCELoss(weight=weights)(pred, target) return loss # 使用示例 criterion = GHMLoss() pred = torch.randn(10, 1) target = torch.randint(0, 2, (10, 1)).float() loss = criterion(pred, target) print(loss) ``` 在上述代码中,我们定义了一个名为`GHMLoss`的自定义损失函数类,它继承自`nn.Module`。在类的初始化方法中,我们设置了GHM损失函数的参数,包括`bins`(直方图的箱数)和`momentum`(动量参数)。在前向传播方法中,我们计算了样本的梯度差异度量`g`,然后根据梯度差异将样本分成不同的区间,并计算每个区间的权重。最后,我们使用带权重的二分类交叉熵损失函数`nn.BCELoss`计算最终的损失。 你可以根据自己的需求调整`bins`和`momentum`参数,并将上述代码集成到你的二分类模型中进行训练。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值