常见回归和分类的损失函数

本文介绍了机器学习中的两类主要任务——分类和回归,并列举了各自常用的损失函数。回归问题中,平方损失、绝对值损失和Huber损失被讨论,其中Huber损失结合了平方损失和绝对值损失的优点。分类问题中,0-1损失、logistic损失、Hinge损失和指数损失被提及,其中0-1损失由于非凸性不常用,而logistic损失在逻辑回归中应用广泛,Hinge损失则是支持向量机的基础。
摘要由CSDN通过智能技术生成

       分类和回归是机器学习中研究的两大目标。分类即预测未知数据的类别,分类模型的输出可以是离散的,也可以是连续的,一般是输出每个类别的概率,分类分为二元分类和多元分类,二元分类如逻辑回归(LR)、支持向量机(SVM),多元分类如SoftMax、决策树(ID3、C4.5、CART等三个最著名的决策树)、朴素贝叶斯等。回归是预测在未知数据上的函数值,比如预测房价、股票等,常见的回归机器学习算法有线性回归、CART回归树等。

       无论回归或者分类,通常做法都是最小化损失函数,即L(y,f(x)),用来衡量预测值和真实值之间的差异,通常越小越好。分类问题中常包含yf(x),回归问题中常包含y-f(x),常见的分类和回归损失函数总结如下:

一、回归问题的损失函数

回归问题中,y

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值