机器学习总结一:常见的损失函数

1. 通常机器学习每个算法都会有一个目标函数,算法的求解过程就是对这个目标函数优化的过程。在分类或者回归问题中,通常使用损失函数(代价函数)作为其目标函数。损失函数用来评价模型的预测值和真实值不一样的程度。损失函数越好,通常模型的性能越好。不同的算法使用的损失函数不一样。

2. 损失函数分为经验损失函数和结构损失函数。

(1)经验风险损失函数指预测结果和实际结果的差别;

(2)结构风险损失函数是指经验风险损失函数加上正则化项。通常表示为如下:

3. 各种损失函数

(1)0-1损失函数和绝对值损失函数:

0-1损失函数是指,预测值和目标值不相等为1,相等为0:

其中,感知机就是用的这种损失函数。但是由于相等这个条件太过严格,因此我们可以放宽条件,即满足|Y-f(X)|<T时则认为相等。即:

而绝对值损失函数为:

(2)log对数损失函数

    逻辑斯特回归的损失函数就是对数损失函数,在logistics回归的推导中,它假设样本服从伯努利分布(0-1分布),然后求得满足该分布的似然函数,接着用对数求极值。logistics回归并灭有求对数似然函数的最大值,而是把极大化当成一个思想,进而推导它的风险函数为最小化的负的似然函数。从损失函数的角度上,它就成为了log损失函数。

    log损失函数的标准形式为:

在极大似然估计中,通常都是先取对数再求导,再找极值点,这样做是方便计算极大似然估计。损失函数L(Y,P(Y|X))

是指样本X在分类Y的情况下,是概率P(Y|X)达到最大值(利用已知的样本分布,找到最大概率导致这种分布的参数值)。

(3)

最小二乘法是线性回归的一种方法,它将回归的问题转化为了凸优化的问题。最小二乘法的基本原则是:最优拟合曲线应该使得所有点到回归直线的距离和最小。通常用欧几里得距离进行距离的度量。平方损失的损失函数为: 

(4)指数损失函数 
AdaBoost就是一指数损失函数为损失函数的。 
指数损失函数的标准形式: 

(5)Hinge损失函数 
Hinge损失函数和SVM是息息相关的。在线性支持向量机中,最优化问题可以等价于 

这个式子和如下的式子非常像:

其中就是hinge损失函数,后面相当于L2正则项。 

Hinge函数的标准形式: 

y是预测值,在-1到+1之间,t为目标值(-1或+1)。其含义为,y的值在-1和+1之间就可以了,并不鼓励|y|>1|y|>1,即并不鼓励分类器过度自信,让某个正确分类的样本的距离分割线超过1并不会有任何奖励,从而使分类器可以更专注于整体的分类误差。

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值