正则化Regularization
重点:目的:为了避免过拟合,降低模型的复杂度,符合奥卡姆剃刀原理使用条件:当且仅当模型表达能力过强,即有可能出现过拟合的情况下才使用使用方法:在之前的损失函数后面加上惩罚项常见类别:L1-正则化(LASSO)、L2-正则化(Ridge)附加知识:L-N范数注意区分:正则化Regularization和标准化Normalization的区别补充:无穷范数是指所有元素中最大值参考资料:线性回归——lasso回归和岭回归(ridge regression)机器学习------L1、L
复制链接