Coursea-吴恩达-machine learning学习笔记(七)【week 3之Regularization】

欠拟合(高偏差):没有很好的拟合训练集数据;
过度拟合(高方差):可以很好的拟合训练集数据,但是函数太过庞大,变量太多,且缺少足够多的数据约束该模型,无法泛化到新的数据样本。

解决过度拟合的方法:

1.减少特征变量的数量
- 人为选择保留的特征变量
- 利用模型选择算法

2.正则化
- 保留所有的特征变量,但要减小数量级或参数 θj θ j 的数值
- 当拥有很多特征变量,且每一个都对预测 y y 起一点作用时,利用正则化很好

正则化的思路:
θ0θ1θn等参数取较小值时,将得到更简单的假设函数,不易发生过拟合的问题。

线性回归的正则化代价函数:

J(θ)=12m[i=1m(hθ(x(i))y(i))2+λj=1nθ2j] J ( θ ) = 1 2 m [ ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 + λ ∑ j = 1 n θ j 2 ]
λnj=1θ2j λ ∑ j = 1 n θ j 2 为正则化项(注:不包含 θ0 θ 0 ), λ λ 为正则化参数

λ λ 的作用是平衡两个目标:
目标1:使假设函数更好地拟合训练集数据;
目标2:保持参数值比较小。

由于目标是最小化 J(θ) J ( θ ) ,对于 λnj=1θ2j λ ∑ j = 1 n θ j 2 ,当 λ λ 特别大的时候, θj θ j 就会很小。

正则化线性回归

梯度下降:
Repeat {

θ0:=θ0α1mi=1m(hθ(x(i))y(i))x(i)0θj:=θjα[1mi=1m(hθ(x(i))y(i))x(i)j+λmθj] θ 0 := θ 0 − α 1 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) x 0 ( i ) θ j := θ j − α [ 1 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) x j ( i ) + λ m θ j ]
}
θj θ j 的梯度下降公式进行整理变形:
θj:=(1αλm)θjα1mi=1m(hθ(x(i))y(i))x(i)j θ j := ( 1 − α λ m ) θ j − α 1 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) x j ( i )
(注: 1αλm<1 1 − α λ m < 1 )

正规方程:
线性回归的正规方程:

θ=(XTX)1XTy θ = ( X T X ) − 1 X T y

正则化线性回归的正规方程:
θ=(XTX+λL)1XTy θ = ( X T X + λ L ) − 1 X T y
其中, L L 为一个(n+1)(n+1)矩阵,形式为
0111 [ 0 1 1 ⋱ 1 ]

正则化逻辑回归

代价函数:

J(θ)=[1mi=1my(i)log(hθ(x(i)))+(1y(i))log(1hθ(x(i)))]+λ2mj=1nθ2j J ( θ ) = − [ 1 m ∑ i = 1 m y ( i ) l o g ( h θ ( x ( i ) ) ) + ( 1 − y ( i ) ) l o g ( 1 − h θ ( x ( i ) ) ) ] + λ 2 m ∑ j = 1 n θ j 2

梯度下降:
Repeat {

θ0:=θ0α1mi=1m(hθ(x(i))y(i))x(i)0θj:=θjα[1mi=1m(hθ(x(i))y(i))x(i)j+λmθj] θ 0 := θ 0 − α 1 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) x 0 ( i ) θ j := θ j − α [ 1 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) x j ( i ) + λ m θ j ]
}

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值