机器学习大牛最常用的5个回归损失函数,你知道几个?

“损失函数”是机器学习优化中至关重要的一部分。L1、L2损失函数相信大多数人都早已不陌生。那你了解Huber损失、Log-Cosh损失、以及常用于计算预测区间的分位数损失么?这些可都是机器学习大牛最常用的回归损失函数哦!

机器学习中所有的算法都需要最大化或最小化一个函数,这个函数被称为“目标函数”。其中,我们一般把最小化的一类函数,称为“损失函数”。它能根据预测结果,衡量出模型预测能力的好坏。

在实际应用中,选取损失函数会受到诸多因素的制约,比如是否有异常值、机器学习算法的选择、梯度下降的时间复杂度、求导的难易程度以及预测值的置信度等等。因此,不存在一种损失函数适用于处理所有类型的数据。这篇文章就讲介绍不同种类的损失函数以及它们的作用。

损失函数大致可分为两类:分类问题的损失函数和回归问题的损失函数。在这篇文章中,我将着重介绍回归损失。

本文出现的代码和图表我们都妥妥保存在这儿了:

https://nbviewer.jupyter.org/github/groverpr/Machine-Learning/blob/master/notebooks/05_Loss_Functions.ipynb

分类、回归问题损失函数对比

https://www.jiqizhixin.com/articles/2018-06-21-3

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
回归问题的损失函数是用来衡量模型预测值与真实值之间的差异的函数。以下是几种常见的机器学习回归损失函数: 1. 均方误差(Mean Squared Error,MSE):MSE是最常见的回归损失函数之一,它计算预测值与真实值之间的平方差的平均值。MSE越小,表示模型的预测结果越接近真实值。 ```python def mse(y_true, y_pred): return np.mean((y_true - y_pred)**2) ``` 2. 平均绝对误差(Mean Absolute Error,MAE):MAE计算预测值与真实值之间的绝对差的平均值。与MSE相比,MAE更加关注预测值与真实值之间的差异,而不是差异的平方。 ```python def mae(y_true, y_pred): return np.mean(np.abs(y_true - y_pred)) ``` 3. Huber损失:Huber损失是一种介于MSE和MAE之间的损失函数,它对预测值与真实值之间的差异进行平方和绝对值两种方式的计算,从而在预测值与真实值之间存在较大差异时,能够更好地平衡两种损失函数的优缺点。 ```python def huber_loss(y_true, y_pred, delta=1.0): error = y_true - y_pred abs_error = np.abs(error) quadratic = np.minimum(abs_error, delta) linear = abs_error - quadratic return np.mean(0.5 * quadratic**2 + delta * linear) ``` 4. Log-Cosh损失:Log-Cosh损失是一种平滑的损失函数,它对预测值与真实值之间的差异进行了对数和双曲余弦两种方式的计算,从而在预测值与真实值之间存在较大差异时,能够更好地平衡两种损失函数的优缺点。 ```python def logcosh_loss(y_true, y_pred): error = y_true - y_pred return np.mean(np.log(np.cosh(error))) ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值