通俗易懂--岭回归(L2)、lasso回归(L1)、ElasticNet讲解(算法+案例)

目录1.L2正则化(岭回归)1.1问题1.2公式1.3对应图形1.4使用场景1.5代码实现2.L1正则化(lasso回归)2.1公式2.2对应图形2.3使用场景2.4代码实现3.ElasticNet回归3.1公式3.2使用场景3.3代码实现1.L2正则化(岭回归)1.1问题想要理解什么是正则化,首先我们先来了解上图的方程式。当训练的特征和数据很少时,往往会造成欠拟合的情况,对应的是左边的坐...
摘要由CSDN通过智能技术生成

1.L2正则化(岭回归)

1.1问题

想要理解什么是正则化,首先我们先来了解上图的方程式。当训练的特征和数据很少时,往往会造成欠拟合的情况,对应的是左边的坐标;而我们想要达到的目的往往是中间的坐标,适当的特征和数据用来训练;但往往现实生活中影响结果的因素是很多的,也就是说会有很多个特征值,所以训练模型的时候往往会造成过拟合的情况,如右边的坐标所示。

1.2公式

以图中的公式为例,往往我们得到的模型是: θ 0 + θ 1 x + θ 2 x 2 + θ 3 x 3 + θ 4 x 4 \theta_0+\theta_1x+\theta_2x^2+\theta_3x^3+\theta_4x^4 θ0+θ1x+θ2x2+θ3x3+θ4x4,为了能够得到中间坐标的图形,肯定是希望 θ 3 \theta_3 θ3 θ 4 \theta_4 θ4越小越好,因为这两项越小就越接近于0,就可以得到中间的图形了。

对应的损失函数也加上这个惩罚项(为了惩罚 θ \theta θ):假设 λ = 1000 \lambda=1000 λ=1000

  • m i n ( 1 2 m [ ∑ i = 1 m ( h θ ( x i ) − y i ) 2 + 1000 θ 3 2 + 1000 θ 4 2 ] ) min(\frac{1}{2m}[\sum_{i=1}^{m}(h_\theta(x^i)-y^i)^2+1000\theta_3^2+1000\theta_4^2]) min(2m1[i=1m(hθ(x
  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值