一、标准答案
损失函数(Loss Function)是用来衡量模型预测结果和真是结果之间差异的一种函数,通常用于监督学习任务中,损失函数越小,表明模型的预测结果越接近真实结果。
目标函数(Objective Function)是在优化模型的过程中所要最大化或最小化的函数。通常情况下,目标函数就是损失函数,因为我们的目标是最小化模型的预测误差。
但是,在某些情况下,目标函数可能不仅仅是损失函数。例如,当我们在训练带有正则化的模型时,目标函数可能分两部分:损失函数和正则化项。在这种情况下,我们的目标是同时最小化损失函数和正则化项。
二、正则化
1、什么是正则化/ 如何进行正则化
其实机器学习中正则化(regularization) 的外在形式非常简单,就是在模型的损失函数中加上一个正则化项(regularizer) ,有时也被称为惩罚项(penalty term) ,如下方程所示,其中L为损失函数,J为正则化项。通常来说,正则化项往往是关于模型参数的1-范数或者2-范数,当然也有可能是这两者的某种结合,例如sklearn的逻辑回归中的弹性网正则化项。其中加入模型参数的1 -范数的正则化也被称为L1正则化,加入模型参数的2-范数的正则化也被称为L2正则化。
2、 为什么要进行正则化
- 一般来说,正则化核心的作用是缓解模型过拟合
- 此外,由于加入正则化项后,损失函数的形体发生了变化,因此也会影响损失函数的求解过程,在某些时候,加入了正则化项之后会让损失函数的求解变得更加高效。
3、经验风险和结构风险
要讨论正则化是如何缓解过拟合倾向问题,需要引入两个非常重要的概念:经验风险和结构风险
- 经验风险:机器学习模型关于训练数据集的平均损失称为经验风险。
- 结构风险:在经验风险的基础上加上模型复杂度的正则项(惩罚),模型越复杂,模型结构风险就越大。
我们希望模型尽可能捕捉原始数据中的特征,因此需要控制经验风险;尽管在一定范围内增加模型复杂度能够提升模型性能,但模型过于复杂可能会导致模型过拟合,因此需要控制结构风险。