“正则化” 这个词中的 “正则” 一词实际上是指 “规则” 或者 “约束” 的意思。在机器学习和统计学中,正则化是一种通过在损失函数中添加额外的项(通常是模型参数的范数)来对模型进行约束的技术。
具体来说,正则化的目的是为了限制模型的复杂度,防止其在训练数据上过度拟合,以提高模型在新数据上的泛化能力。通过向损失函数添加一个惩罚项,正则化可以引导模型选择简单的解决方案,从而避免选择复杂且可能在训练数据上表现很好但在新数据上表现糟糕的解决方案。
常见的正则化方法包括 L1 正则化(Lasso)、L2 正则化(Ridge)等,它们分别通过对模型参数的绝对值和平方和进行惩罚,从而限制了模型参数的大小。这种约束使得模型更倾向于选择一些重要的特征,并将一些不重要的特征的权重降低甚至归零。
总的来说,正则化通过在损失函数中引入额外的约束,帮助控制了模型的复杂度,提高了模型的泛化能力,使其在实际应用中更具有稳定性和可靠性。