机器学习(Machine Learning)- 吴恩达(Andrew Ng)视频笔记 第七章

第七章

目录

7 - 1 - The Problem of Overfitting
7 - 2 - Cost Function
7 - 3 - Regularized Linear Regression
7 - 4 - Regularized Logistic Regression


7 - 1 - The Problem of Overfitting

回归问题:
在这里插入图片描述
如图第一个模型是一个一阶线性模型,欠拟合,不能很好的拟合训练集数据;第三个模型是四次方的模型,过于强调拟合原始数据,而无法很好的预测新数据。而中间的模型似乎最合适。
分类问题中也存在这样的问题:
在这里插入图片描述
如图中多项式? 的次数越高,拟合的越好,但相应的预测的能力就可能变差。
如何应对以上问题:
1.丢弃一些不能帮助我们正确预测的特征。可以是手工选择保留哪些特征,或者使用一些模型选择的算法来帮忙(例如PCA)
2.正则化。 保留所有的特征,但是减少参数的大小。


7 - 2 - Cost Function

从上一节可以发现,高次项往往导致了过拟合的产生,所以如果我们能让这些高次项的系数接近于0 的话,我们就能很好的拟合了。所以我们要做的就是在一定程度上减小这些参数? 的值,这就是正则化的基本方法。减少 θ 3 \theta_3 θ3 θ 4 \theta_4 θ4的大小,在其中 θ 3 \theta_3 θ3 θ 4 \theta_4 θ4设置一点惩罚。

修改后的代价函数如下:
J ( θ 0 , θ 1 , . . . , θ n ) = 1 2 m [ Σ i = 1 m ( h θ ( x i ) − y ( i ) ) 2 + 1000 θ 3 2 + 10000 θ 4 2 ] J(\theta_0,\theta_1, . . . ,\theta_n) = \frac{1}{2m}[\Sigma_{i=1}^m(h_\theta(x^{i})-y^{(i)})^2+1000\theta_3^2+10000\theta_4^2] J(θ0,θ1,...,θn)=2m1[Σi=1m(hθ(xi)y(i))2+1000θ32+10000θ42]
通过这样的代价函数选择出的 θ 3 \theta_3 θ3 θ 4 \theta_4 θ4 对预测结果的影响就比之前要小许多。假如有非常多的特征,但不知其中哪些特征需要要惩罚,则将对所有的特征进行惩罚,并且让代价函数最优化的软件来选择这些惩罚的程度。得到了一个较为简单的能防止过拟合问题的假设: J ( θ 0 , θ 1 , . . . , θ n ) = 1 2 m [ Σ i = 1 m ( h θ ( x i ) − y ( i ) ) 2 + λ Σ j = 1 n θ j 2 ] J(\theta_0,\theta_1, . . . ,\theta_n) = \frac{1}{2m}[\Sigma_{i=1}^m(h_\theta(x^{i})-y^{(i)})^2+\lambda\Sigma_{j=1}^n\theta_j^2] J(θ0,θ1,...,θn)=2m1[Σi=1m(hθ(xi)y(i))2+λΣj=1nθj2]
其中?又称为正则化参数。
根据惯例,我们不对 θ 0 \theta_0 θ0进行惩罚。经过正则化处理的模型与原模型的可能对比如下图所示:
在这里插入图片描述
但是如果选择的正则化参数λ 过大,则会把所有的参数都最小化了,导致模型变成 h θ ( x ) = θ 0 h_\theta(x) =\theta_0 hθ(x)=θ0,也就是一条直线,从而造成欠拟合。
所以要选择适当的 λ \lambda λ!!!


7 - 3 - Regularized Linear Regression

若要使用梯度下降法使代价函数最小化,所以梯度下降算法将分两种情形:在这里插入图片描述
同样也可以利用正规方程来求解正则化线性回归模型,方法如下所示:
在这里插入图片描述


7 - 4 - Regularized Logistic Regression

对于逻辑回归,代价函数增加一个正则化的表达式,得到代
价函数如下:
J ( θ ) = − 1 m Σ i = 1 m [ y × l o g ( h θ ( x ) ) + ( 1 − y ) × l o g ( 1 − h θ ( x ) ) ] + λ 2 m Σ j = 1 n θ j 2 J(\theta) = -\frac{1}{m}\Sigma_{i=1}^m[y ×log(h_\theta(x)) +(1 − y)× log(1 − ℎ_\theta(x))]+\frac{\lambda}{2m}\Sigma_{j=1}^n\theta_j^2 J(θ)=m1Σi=1m[y×log(hθ(x))+(1y)×log(1hθ(x))]+2mλΣj=1nθj2
Python 代码:


import numpy as np
def costReg(theta, X, y, learningRate):
theta = np.matrix(theta)
X = np.matrix(X)
y = np.matrix(y)
first = np.multiply(-y, np.log(sigmoid(X*theta.T)))
second = np.multiply((1 - y), np.log(1 - sigmoid(X*theta.T)))
reg = (learningRate / (2 * len(X))* np.sum(np.power(theta[:,1:the
ta.shape[1]],2))
return np.sum(first - second) / (len(X)) + reg

1、虽然正则化的逻辑回归中的梯度下降和正则化的线性回归中的表达式看起来一样,但两者的 h θ ( x ) h_\theta(x) hθ(x)不同,有很大差别。
2、 θ 0 \theta_0 θ0不参与其中的任何一个正则化。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值