详解机器学习中的“正则化”(Regularization)

本文深入探讨机器学习中的正则化,解释其与过拟合的关系。通过实例说明,从简单回归问题出发,阐述欠拟合、过拟合的概念,并介绍了岭回归和LASSO作为防止过拟合的手段,特别是LASSO的稀疏解特性,适合高维情况。
摘要由CSDN通过智能技术生成

〇、一些题外话,无感者可略过


最近我所在的各种(机器学习、数据挖掘、机器视觉、图像处理)群里时不时就会有人问到这个问题——机器学习中的正则化到底是什么?它跟过拟合又有什么关系?我通常的回答都是希望他们能去好好读一下我红色书皮的那本《R语言实战——机器学习与数据分析》,因为我觉得里面确实已经讲得非常非常详细了。


说起来,“正则化”(Regularization)确实不是一个新鲜的问题,但是为什么现在这么多人开始为她欢喜为她愁?——因为深度学习现在太火了!像Regularization、Loss function等等这些名词在研究深度学习时都无法避开,但是它们确实早就存在了。

评论 33
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

白马负金羁

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值