文章目录
哈喽,我是cos大壮!
针对之前对于各个算法的优缺点的总结,以及8个回归类算法的总结!
今天给大家带来的是「正则化算法」的全部总结!
正则化是一种用于降低机器学习模型过拟合风险的技术。当模型过度拟合训练数据时,它会在新样本上表现不佳。所以为了解决这个问题,我们必须要引入正则化算法。
正则化通过在模型的损失函数中添加一个正则项(惩罚项)来实现。这个正则项通常基于模型参数的大小,以限制模型参数的数量或幅度。主要有两种常见的正则化算法:L1正则化和L2正则化。
-
L1正则化(Lasso):L1正则化添加了模型参数的绝对值之和作为正则项。它倾向于使一些参数变为零,从而达到特征选择的效果。所以,L1正则化可以用于自动选择最重要的特征,并减少模型复杂度。
-
L2正则化(Ridge):L2正则化添加了模型参数的平方和作为正则项。它倾向于使所有参数都较小,但没有明确地将某些参数设置为零。L2正则化对异常值更加鲁棒,并且可以减少模型的过度依赖单个特征的情况。
正则化通过控制模型参数的大小来限制模型的复杂度,从而避免过拟合。在损失函数中引入正则项后,模型的优化目标变为最小化损失函数和正则项之和。
正则化算法在机器学习中广泛应用,特别是在线性回归、逻辑回归和神经网络等模型中。它可以提高模型的泛化能力并改善模型在新数据上的预测性能。
今天要探究的是这7各部分,大家请看~
- L1 正则化
- L2 正则化
- 弹性