损失函数的意义和作用_实战 | 机器学习中的 7 大损失函数总结

本文深入探讨了机器学习中的损失函数,包括平方误差损失、绝对误差损失、Huber损失、二元交叉熵损失、Hinge损失、多分类交叉熵损失和KL散度。损失函数是评估模型性能的关键,用于指导优化过程。文章通过实例解释了各种损失函数的工作原理,并展示了如何使用Python实现。
摘要由CSDN通过智能技术生成

点击上方“计算机视觉life”,选择“星标”

快速获得最新干货

译者 | VK,磐创AI 来 源 | Analytics Vidhya

概述

  • 学习什么是损失函数以及它们如何在机器学习算法中工作

  • 损失函数实际上是我们经常使用的技术的核心

  • 本文介绍了多种损失函数与它们的工作原理以及如何使用Python对它们进行编程

介绍

想象一下-你已经在给定的数据集上训练了机器学习模型,并准备好将它交付给客户。但是,你如何确定该模型能够提供最佳结果?是否有指标或技术可以帮助你快速评估数据集上的模型?

当然是有的,简而言之,机器学习中损失函数可以解决以上问题。

损失函数是我们喜欢使用的机器学习算法的核心。但大多数初学者和爱好者不清楚如何以及在何处使用它们。

0879fe045449d320c7b34f72cdbb86d2.png

它们并不难理解,反而可以增强你对机器学习算法的理解。那么,什么是损失函数,你如何理解它们的意义?

在本文中,我将讨论机器学习中使用的7种常见损失函数,并解释每种函数的使用方法。

目录

  • 什么是损失函数?

  • 回归损失函数

  • 平方误差损失

  • 绝对误差损失

  • Huber损失

  • 二分类损失函数

  • 二分类交叉熵

  • Hinge损失

  • 多分类损失函数

  • 多分类交叉熵损失

  • KL散度(Kullback Leibler Divergence Loss)

什么是损失函数?

假设你在山顶,需要下山。你如何决定走哪个方向?

bc8ae411bf130200a52244fbd6fbf198.png

我要做的事情如下:

  • 环顾四周,看看所有可能的路径

  • 拒绝那些上升的路径。这是因为这些路径实际上会消耗更多的体力并使下山任务变得更加艰难

  • 最后,走我认为的坡度最大的路径

关于我判断我的决策是否好坏的直觉,这正是损失函数能够提供的功能。

损失函数将决策映射到其相关成本

决定走上坡的路径将耗费我们的体力和时间。决定走下坡的路径将使我们受益。因此,下坡的成本是更小的。

在有监督的机器学习算法中,我们希望在学习过程中最小化每个训练样例的误差。这是使用梯度下降等一些优化策略完成的。而这个误差来自损失函数。

损失函数(Loss Function)和成本函数(Cost Function)之间有什么区别?

在此强调这一点,尽管成本函数损失函数是同义词并且可以互换使用,但它们是不同的。

损失函数用于单个训练样本。它有时也称为误差函数(error function)。另一方面,成本函数是整个训练数据集的平均损失(average function)。优化策略旨在最小化成本函数。

回归损失函数

此时你必须非常熟悉线性回归。它涉及对因变量Y和几个独立变量Xi之间的线性关系进行建模。因此,我们在空间中对这些数据拟合出一条直线或者超平面。

Y = a0 + a1 * X1 + a2 * X2 + ....+ an * Xn

我们将使用给定的数据点来找到系数a0,a1,…,an。

1aa2ce3eeaaeaa4e96de11b0f10d87f5.png

我们将使用著名的波士顿住房数据集^1来理解这个概念。为了简单起见,我们将只使用一个特征-每个住宅的平均房间数(Average number of rooms per dwelling)(X)来预测因变量-1000美元价位的房屋的中位数价值(Median Value)(Y)

f06553726873015d362c4be9b6614295.png

我们将使用梯度下降(Gradient Descent)作为优化策略来查找回归线。我不会详细介绍Gradient Descent的细节,但这里提醒一下权重更新规则:

454f7bd0664128b6b422445877137a55.png

这里,θj是要更新的权重,α是学习率,J是成本函数。成本函数由θ参数化。我们的目标是找到产生最小总成本的θ值。

我已经为下面的每个损失函数定义了我们将遵循的步骤:

  1. 写出预测函数f(X)的表达式,并确定我们需要找到的参数

  2. 确定每个训练样本计算得到的损失

  3. 找到成本函数(所有样本的平均损失)的表达式

  4. 找到与每个未知参数相关的成本函数的梯度

  5. 确定学习率并在固定次数中进行迭代执行权重更新规则

1.平方误差损失

每个训练样本的平方误差损失(也称为L2 Loss)是实际值和预测值之差的平方:

79352419e7ce2dc2ba02db0f7de36445.png

相应的成本函数是这些平方误差的平均值(MSE)。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值