损失函数篇(基于公开资源整理, 侵删)

一、分类问题

1.0-1损失函数

        特点:    

                作为一种标准,但是相对太苛刻了,因此感知机使用的是一种软约束后的0-1损失函数 

2. hinge loss: 主要用于SVM中

特点:

        1. 主要用于svm中,如果样本分类正确,则损失为0,否则为1-y*f(x),其中f(x)的取值在(-1, 1)之间,而y的取值为-1或1。并不鼓励模型对某些样本过度自信,因此式模型更专注于整体的误差。

        2.健壮性较强,对噪声不敏感 

3. log loss

特点:

        1. 输出在(0,1)之间,因此能非常好的表征概率分布

        2.健壮性不强,对噪声敏感(噪声会带来较大的输出值,对损失值带来较大的影响)

        3. LR的损失函数 

4. 指数损失函数

       

 特点:

        1.对离群点,噪声非常敏感

        2. 常用于adaboost算法中

5. 感知损失函数

特点:

        1. hinge的一个变种, 不同于hinge的最大分类边界,在这个损失函数中,只要模型判断正确即可,则损失为0。

        2.没有hinge的泛化能力强

6. 交叉熵损失函数

特点:

        1.本质上是一种对数似然函数(log loss)

        2. 当使用sigmoid作为激活函数的时候,常使用CE而不是MSE,因为MSE的梯度更新缓慢。

MSE的梯度公式:

当a趋向于0或1时,激活函数的导数趋向于0,会造成梯度更新缓慢。

 CE的梯度公式:

        因为没有激活函数的导数这一项,不会出现MSE的问题。于此同时,当误差(a-y)较大时,梯度值也会较大,模型更新的快,否则误差小则更新的慢,是一种很好的性质。         

        除此之外,MSE用于回归问题,CE用于分类问题。因为对于分类问题,MSE是非凸优化问题,容易陷入局部最优解。

7. focal loss:解决样本不均衡和简单样本易区分问题

特点:

         1. 在CE上做的改进,

         2. 引入alpha来解决样本不均衡问题,alpha为类别比例因子,根据样本类别分布决定。

         3. 引入gamma来解决简单样本易分类问题,其中gamma根据经验一般取2。当gamma为0时即为交叉熵损失函数。

二、回归

1. 平均绝对误差:L1损失函数

特点: 

        1. 可以看做对误差的均值无偏估计

        2. 函数在0处不可导

        3. 损失函数随着误差呈线性增长

 2. 均方误差: L2损失函数

特点:

        1. 可以看做对误差的方差无偏估计

        2. 模型对异常值敏感 

        3.常用最小二乘法求解

3. Huber loss:平滑平均绝对误差

特点:

        1. 基于绝对误差,但在误差很小的时候采用均方误差 。通过超参数sigma调节两种误差的转换

        2. 既保证了可微性,又增强了对异常值的鲁棒性

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值