损失函数

损失函数


监督学习实际就是一个经验风险或者结构风险函数的优化问题。风险函数度量平均意义下模型预测的好坏,模型每一次预测的好坏用损失函数来度量。损失函数(loss function)又称为代价函数(cost function),是一种用来评价模型预测值和样本真实值之间的差异程度,一般为一个非负函数。损失函数的值越小,表示预测值和真实值之间相差越小,模型的性能越好。

设样本数据表示为 (X,Y)=(x1,x2,,xd,y) X 表示样本数据的d维属性, Y 表示样本的值。有数据集D={(x1,y1),(x2,y2),,(xm,ym)}中共有 m 个样本,样本中xi都是 d 维。模型f(x)对每个样本数据的输出为 y^

D{(xi,yi)}f(x)D{(xi,y^i)}

定义单个样本损失函数为 (yi,y^i) ,那么关于训练集的平均损失称为 经验风险
Remp=1mi=1m(yi,y^i)

结构风险是在经验风险的基础上加上了表示模型复杂度的正则化或者惩罚项。
Rsrm=1mi=1m(yi,y^i)+λJ

关于如何选择模型,监督学习常有两种策略:经验风险最小化和结构风险最小化。


常见的损失 定义

0-1损失

预测值和实际值相等则为0,否则为1。

(yi,yi^)={1,0,yiyi^yi=yi^

感知损失

引入阈值超参数 t ,当预测值和实际值相差不超过阈值时为0,否则为1。这种损失定义在感知机算法PLA中有使用。

(yi,yi^)={1,0,|yiyi^|>t|yiyi^|t

Hinge损失

可以用来解决间隔最大化问题,在SVM中有使用。

(yi,yi^)=max{0,1yiyi^}

对数损失

常用在极大似然估计的过程中,因为log函数可以将连乘转换为求和,且并不会改变优化结果。在逻辑回归LR中有使用。

(yi,y^i)=log φ(yi,y^i)

平方误差损失

在回归中有使用。

(yi,yi^)=(yiyi^)2

绝对值误差损失

在回归中有使用。

(yi,yi^)=|yiyi^|

指数误差损失

在boosting算法中有使用。

(yi,yi^)=exp(yiyi^)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值