常见回归和分类损失函数比较

本文探讨了回归和分类问题中的损失函数,包括平方损失、绝对值损失、Huber损失、0-1损失、Logistic损失、Hinge损失、指数损失以及modified Huber损失。针对异常点的鲁棒性、优化难度和分类效果,分析了各种损失函数的优缺点,并指出它们在实际应用中的选择依据。
摘要由CSDN通过智能技术生成

文章转自知乎作者wdmad,更多内容建议阅读原文:https://zhuanlan.zhihu.com/p/36431289

本博文属于阅读笔记,融合了个人观点。

1. 损失函数

损失函数的一般表示为 L(y,f(x)),用以衡量真实值 y和预测值 f(x)之间不一致的程度,一般越小越好。为了便于不同损失函数的比较,常将其表示为单变量的函数,在回归问题中这个变量为 [y-f(x)] :残差表示,在分类问题中则为 yf(x) : 趋势一致

2. 回归问题的损失函数

回归问题中 y 和 f(x)皆为实数 R,因此用残差 [y-f(x)]来度量二者的不一致程度。残差 (的绝对值) 越大,则损失函数越大,学习出来的模型效果就越差(这里不考虑正则化问题)。

常见的回归损失函数:

  • 平方损失 (squared loss) :

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值