深入理解机器学习中的:目标函数,损失函数和代价函数

参考知乎回答整理:https://www.zhihu.com/question/52398145

主要参考:https://www.zhihu.com/question/52398145/answer/209358209

基本概念:

损失函数:计算的是一个样本的误差

代价函数:是整个训练集上所有样本误差的平均

目标函数:代价函数 + 正则化项

实际应用:

损失函数和代价函数是同一个东西,目标函数是一个与他们相关但更广的概念,举例说明:
在这里插入图片描述

上面三个图的曲线函数依次为f1(x),f2(x),f3(x),我们想用这三个函数分别来拟合真实值Y。

我们给定x,这三个函数都会输出一个f(X),这个输出的f(X)与真实值Y可能是相同的,也可能是不同的,为了表示我们拟合的好坏,我们就用一个函数来度量拟合的程度。这个函数就称为损失函数(loss function),或者叫代价函数(cost function)

L ( Y , f ( x ) ) = ( Y − f ( x ) ) 2 L(Y,f(x)) = (Y - f(x))^{2} L(Y,f(x))=(Yf(x))2

损失函数越小,就代表模型拟合的越好。那是不是我们的目标就只是让loss function越小越好呢?还不是。这个时候还有一个概念叫风险函数(risk function)。风险函数是损失函数的期望,这是由于我们输入输出的(X,Y)遵循一个联合分布,但是这个联合分布是未知的,所以无法计算。但是我们是有历史数据的,就是我们的训练集,f(X)关于训练集的平均损失称作经验风险(empirical risk),所以我们的目标就是最小化经验风险。

1 N ∑ i = 1 N L ( y i , f ( x i ) ) \frac{1}{N}\sum_{i=1}^{N}L(y_{i}, f(x_{i})) N1i=1NL(yi,f(xi))

到这里完了吗?还没有。

如果到这一步就完了的话,那我们看上面的图,那肯定是最右面的f3(x)的经验风险函数最小了,因为它对历史的数据拟合的最好嘛。但是我们从图上来看它肯定不是最好的,因为它过度学习历史数据,导致它在真正预测时效果会很不好,这种情况称为过拟合(over-fitting)。为什么会造成这种结果?大白话说就是它的函数太复杂了,都有四次方了,这就引出了下面的概念,我们不仅要让经验风险最小化,还要让结构风险最小化。

这个时候就定义了一个函数 J ( f ) J(f) J(f),这个函数专门用来度量模型的复杂度,在机器学习中也叫正则化(regularization)。常用的有 L 1 , L 2 L1, L2 L1,L2范数。到这一步我们就可以说我们最终的优化函数是:
m i n 1 N ∑ i = 1 N L ( y i , f ( x i ) ) + λ J ( f ) min \frac{1}{N}\sum_{i=1}^{N}L(y_{i}, f(x_{i})) + \lambda J(f) minN1i=1NL(yi,f(xi))+λJ(f)

即最优化经验风险和结构风险,而这个函数就被称为目标函数

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
机器学习,残差函数损失函数目标函数代价函数都是用于描述模型预测值与真实值之间的差异的函数,但它们的含义和使用场景略有不同。 - 残差函数:在监督学习,我们通常会给定一个数据集,其包含了输入和输出的对应关系。此时,我们可以使用一个模型对输入进行预测,并将预测结果与真实输出之间的差异定义为残差。残差函数通常表示为: $ r_i = y_i - f(x_i) $ 其,$y_i$表示真实输出值,$f(x_i)$表示输入$x_i$对应的模型预测值,$r_i$表示输入$x_i$对应的残差。残差函数通常用于拟合模型。 - 损失函数损失函数也称为代价函数或误差函数,是衡量模型预测值与真实值之间差异的函数。常见的损失函数包括均方误差(MSE)、交叉熵(Cross Entropy)等。损失函数通常表示为: $ L(\theta) = \frac{1}{m} \sum_{i=1}^{m} l(f(x_i, \theta), y_i) $ 其,$\theta$表示模型的参数,$m$表示样本数量,$y_i$表示真实输出值,$f(x_i,\theta)$表示输入$x_i$对应的模型预测值,$l(\cdot)$表示基础损失函数损失函数通常用于训练模型,即通过最小化损失函数来寻找最优的模型参数。 - 目标函数目标函数也称为优化目标函数,是在优化模型时需要最小化的函数目标函数一般包含模型的损失函数和正则项。目标函数通常表示为: $ J(\theta) = L(\theta) + \lambda R(\theta) $ 其,$\theta$表示模型的参数,$L(\theta)$表示模型的损失函数,$R(\theta)$表示正则项,$\lambda$表示正则化参数。目标函数通常用于选择最优的模型参数,以达到最小化损失函数的目的。 - 代价函数代价函数也称为成本函数,常用于描述整个训练集的误差。代价函数通常表示为: $ J(\theta) = \frac{1}{2m} \sum_{i=1}^{m} (y_i - f(x_i, \theta))^2 $ 其,$\theta$表示模型的参数,$m$表示样本数量,$y_i$表示真实输出值,$f(x_i,\theta)$表示输入$x_i$对应的模型预测值,$J(\theta)$表示代价函数代价函数通常用于衡量整个模型在训练集上的误差,以确定是否需要调整模型的参数来改善模型的性能。 总之,残差函数损失函数目标函数代价函数都是机器学习用于描述模型预测值与真实值之间的差异的函数,但它们的含义和使用场景是不同的。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值