人工智能-模型过拟合解决方案:Regularization/正则化/Weight Decay【L1正则化、L2正则化】
- 在解决回归过拟合中,我们选择正则化。但是对于其他机器学习算法如分类算法来说也会出现这样的问题,除了一些算法本身作用之外(决策树、神经网络),我们更多的也是去自己做特征选择,包括之前说的删除、合并一些特征
- 在学习的时候,数据提供的特征有些影响模型复杂度或者这个特征的数据点异常较多,所以算法在学习的时候尽量减少这个嘈杂特征的影响(甚至删除某个特征的影响),即减少嘈杂特征项的权重,这就是正则化。
- 注:调整时候,算法并不知道某个特征影响,而是去不断尝试调整参数