损失函数与梯度提升树

本文深入探讨了机器学习中的损失函数,包括分类问题的0-1损失、指数损失、log损失、均方损失、hinge损失和偏差损失,以及回归问题的均方损失、绝对损失和Huber损失。接着,文章详细阐述了GBDT算法,解释了如何使用梯度提升方法处理各种损失函数,并分别讨论了在分类和回归问题中的应用。在分类中,GBDT默认采用偏差损失,而在回归问题中,通过拟合残差生成回归树。
摘要由CSDN通过智能技术生成

上一篇文章简单介绍了几种集成方法,以随机森林为代表的平均方法,以adaboost、提升树为代表的提升方法。本文继续提升树的讨论,采用梯度提升算法,分析更一般的损失函数下的分类、回归问题。首先介绍几种在机器学习算法中常见的损失函数,继而介绍GBDT算法。

1、 损失函数

1.1、 分类问题损失函数

在二分类中把

m=yf(x)
称为margin。当 m<0 时则说明误分类。基于此,下面介绍几种常见的分类损失函数。

1.1.1、 0-1损失

表达式为:

L01(m)=I(sign(f)y)

或者
L01(m)={ 0,m01,m<0

即只对误分类样本进行惩罚,类似有后列几种损失。

1.1.2、 指数损失

表达式:

Le=exp(yf)

Adaboost算法就是用的此种损失函数。在上一篇文章中有介绍。

1.1.3、 log损失

表达式:

Ll=log(1+exp(yf))

在逻辑回归中用到的损失函数。

1.1.4、均方损失

表达式:

L2=(yf)2

1.1.5、hinge损失

表达式:

Lh=(1yf)+

在支持向量机中使用。

1.1.6、偏差损失函数

考虑K分类问题,假设在第k类的概率:

pk(x)=exp(fk(x))Kl=1exp(fl(x))

则多项式偏差:
L(y,p(x))=k=1KI(y=gk)logpk(x)=k=1KI(y=gk)fk(x)+log(k=1
  • 3
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值