机器学习第三周(三)--正则化

过拟合与欠拟合

三幅图片

第一幅图片能看到模型能大致拟合数据,但效果不是很好;第二幅相比效果就好很多;第三幅图片也能很好的拟合当前数据,但是预测数据效果不行。我们将第一幅图片中的现象称为“欠拟合”( underfitting)也叫“高偏差”(high bias),第三幅中的现象称作“过拟合”(overfitting)也叫“高方差”(high variance)。图片2中的模型是我们最好的结果。比较一下欠拟合和过拟合。

欠拟合过拟合
特征太少,导致模型太简单不能很好拟合数据特征太多,模型太过复杂,能很好拟合当前数据但预测数据效果差
解决办法增加特征,使模型变得复杂减少特征数量,或者正则化

欠拟合和过拟合现象在线性回归和逻辑回归中都可能出现,下面给出俩中解决过拟合现象的具体方法
这里写图片描述
其中使用正则化主要分为减小 θ  的大小和挑选更有用的特征。


正则化

对比图
左边的模型是我们想要的结果,为了改善右边的过拟合现象,对 θ3  θ4  项做平方处理,这时 θ3  θ4  近似0,这就能极大减小原假设函数中后俩项的影响,模型也就等同左边模型。
按照这种思想,我们得到损失函数一般式:
损失函数
λ  称正则参数(regularization parameter),注意 λ  如果取得过大,那么 θ  项接近于0,这样假设函数模型就会过于简单,又会陷入到欠拟合中

这里写图片描述


Regularized linear regression

给出梯度下降式:
梯度下降
注意: θ0  拿出来不参与正则化。j>1项进一步化简有
进一步化简
注意这里写图片描述一般要小于1


Normal Equation

常规方程是直接求 θ  的,这里也给出直接求 θ  的等式,
常规方程正则化
注意:如果m 小于n(样本少于特征),则X的转置与X乘积可能是不可逆的,但加上正则项后为可逆。


Regularized logistic regression

同线性回归类似,加入正则化参数,结果如下
逻辑回归损失函数
同样给出梯度下降式
逻辑回归梯度下降

注意:当引入正则化后,梯度求解要分别分theta=0和theta(j>=1)俩种情况,所以不管线性回归或逻辑回归或常规方程求解梯度下降时都要分theta=0和theta>=1俩种情况

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值