大模型常见 loss 函数

loss 函数

首先,Loss 是允许不降到 0 的,模型计算的 loss 最终结果可以接近 0。

可以成为 loss 函数的条件在这里插入图片描述## 常用 loss

以下函数调用基于 Pytorch,头文件导入:
import torch.nn as nn

  • 均方差(MSE)
    nn.functional.mse_loss
    定义
    预测值与真实值之差的平方的平均值
    应用场景
    主要用于回归问题
  • 交叉熵(Cross Entropy)
    nn.functional.cross_entropy 要求二维的输入,一维的输出
    nn.CrossEntropyLoss 中已经实现了softmax功能
    对于 y_pred 的要求是:n * class_num,对于 y 的要求是 n
    交叉熵计算逻辑的例子在这里插入图片描述
    定义
    衡量概率分布之间的差异
    应用场景
    • 主要用于分类问题,尤其是二分类和多分类问题
    • 适用于输出层使用 sigmoid 或 softmax 激活函数的情况,因为这些函数的输出可以解释为概率分布
    • 计算逻辑
      -log(预测值与正确标签对位相乘,再相加)
    • 使用前提
      1. 交叉熵的输入是一个概率值
      2. 预测场景概率空间和结果为1(log函数在x小于0时无定义)
        特点
      3. 目前,在分类问题上,基本都采用交叉熵。
      4. 使模型输出易于比较(通过交叉熵损失)
      5. 通过归一化(指将模型输出转换为概率分布)来评估模型性能

记录应用不多的其他 loss(以下 loss 有使用心得之后再做记录)

  • 0/1损失(BCELoss)
    通常与 sigmoid 函数一起使用
  • 指数损失
  • 对数损失
  • Hinge损失
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值