pytorch基础(十三)----------损失函数(一)

一、损失函数的概念

损失函数:用来衡量模型输出与真实标签的差异,计算一个样本的一个差异
代价函数:计算整个训练集loss的均值
目标函数:等于代价函数加上正则项

二、常见的损失函数

如下图所示,loss方法也是继承了module类,所以loss也是一个模块,同样具有forward函数
在这里插入图片描述
以交叉熵损失函数为例,进行代码展示

from torch.nn import CrossEntropyLoss

# 实例化交叉熵损失函数
loss_function = CrossEntropyLoss()

# 使用交叉熵损失函数计算损失
loss = loss_function(output, label)
1、交叉熵损失函数(适用于分类任务)

nn.CrossEntropyLoss(weight=None, size_average=None, ignore_index=-100, reduce=None, reduction=‘mean’)
功能:nn.LogSoftmax()和nn.NLLLoss()结合, 进行交叉熵计算,由softmax归一化成概率值分布再进行计算损失
参数:
weight:各类别的loss设置权值
ignore_index:忽略某个类别
reduction:计算模式,可为none/sum/mean(none:逐元素计算;sum:所有元素求和,返回标量;mean:加权平均,返回标量)

2、负对数似然损失函数

nn.NLLLoss(weight=None, size_average=None, ignore_index=-100, reduce=None, reduction=‘mean’)
功能:实现负对数似然函数中的负数功能
参数:
weight:各类别的loss设置权值
ignore_index:忽略某个类别
reduction:计算模式,可为none/sum/mean(none:逐元素计算;sum:所有元素求和,返回标量;mean:加权平均,返回标量)

3、二分类交叉熵损失函数

nn.BCELoss(weight=None, size_average=None,reduce=None, ignore_index=-100, reduction=‘mean’)
功能:二分类交叉熵
注意:输入值取值在【0,1】,如果输入值不在【0,1】就会报错,需要手动使用torch.sigmoid(input)进行标准化
参数:
weight:各类别的loss设置权值
ignore_index:忽略某个类别
reduction:计算模式,可为none/sum/mean(none:逐元素计算;sum:所有元素求和,返回标量;mean:加权平均,返回标量)

4、改进的二分类交叉熵

nn.BCEWithLogitLoss(weight=None, size_average=None,reduce=None, ignore_index=-100, reduction=‘mean’, pos_weight=None)
功能:结合sigmoid与二分类交叉熵
注意:不需要再手动添加标准化
参数:
pos_weight:正样本的权值
weight:各类别的loss设置权值
ignore_index:忽略某个类别
reduction:计算模式,可为none/sum/mean(none:逐元素计算;sum:所有元素求和,返回标量;mean:加权平均,返回标量)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值