【PyTorch】_Loss 损失函数

损失函数、代价函数、成本cost函数、误差函数基本是一个概念。当我们通过以往的数据得到模型后,然后将数据输入这个模型得到的值与真实值之间会产生误差,我们求解误差总和的过程就是代价函数。

  • 方差代价函数
    • MSE距离损失函数——最小平方误差准则Minimum Squared Error
  • 交叉熵代价函数
  • Hinge loss

cross entropy loss

PyTorch损失函数设计

https://blog.csdn.net/zhangxb35/article/details/72464152

torch.backword()

在这里插入图片描述

Word2Vec

sampled softmax

NCE loss

focal loss

针对类别不平衡问题,这个损失函数是在标准交叉熵损失基础上修改得到的。这个函数可以通过减少易分类样本的权重,使得模型在训练时更专注于难分类的样本。
一个最基本的对交叉熵的改进,也将作为本文实验的baseline,既然one-stage detector在训练的时候正负样本的数量差距很大,那么一种常见的做法就是给正负样本加上权重,负样本出现的频次多,那么就降低负样本的权重,正样本数量少,就相对提高正样本的权重。因此可以通过设定a的值来控制正负样本对总的loss的共享权重。a取比较小的值来降低负样本(多的那类样本)的权重。
focal loss的两个性质算是核心,其实就是用一个合适的函数去度量难分类和易分类样本对总的损失的贡献。

Triplet Loss 三重损失

  • 用于训练差异性较小的样本,如人脸等
  • Feed数据包括锚(Anchor)示例、正(Positive)示例、负(Negative)示例,通过优化锚示例与正示例的距离小于锚示例与负示例的距离,实现样本的相似性计算。
    在这里插入图片描述
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值