【吴恩达】机器学习第5章学习收获

1.多变量线性回归:

数据集解释不同:x^_{(i)}:第i个训练样本(但这里已经是一个向量了)x_{j}^{(i)}第i个训练样本的第j的特征变量

h_{\theta }(x)=\theta _{0}+\theta _{1}x_{1}+\theta _{2}x_{2}+...+\theta _{n}x_{n}

定义x_{0}=1

X=\binom{x_{0}}{x_{n}}     \Theta=\binom{\theta _{0}}{\theta _{n}} 所以h_{\theta }(x)={\theta }'x (‘的意思是转置)

2.使用梯度下降处理多变量线性回归,在特征很多的时候,效果比较好。但由于变量较多,需要特征缩放(Feature Scaling),,这样可以使得所有变量都在同范围内,收敛得更快。同时,还有均值归一化处理,与特征缩放同样的道理。

x=\frac{x-u}{s} 一般来说,u是变量均值(可以按照平均值处理),s是变量范围(最大值减去最小值)。

使用梯度下降处理多变量线性回归和单变量基本一致。

3.使用正规方程法处理多变量线性回归。以y=a\theta ^{2}+b\theta +c为例,求其导数零点,即可求出\theta。同理,推论到J,求其各位变量的偏导数为0,求得各位\theta.

这里有一个问题:\Theta =({X}'X)^{-1}{X}'y的推导过程?(推导过程来啦)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

使用正规方程法,适合特征比较少的情况,当n小于1万的时候,计算压力不会很大,但n越来越大时,计算会变得很慢。除此之外,正规方程法适用于线性回归,但是对很多其他算法并不是很适用。正规方程法不需要进行特征缩放。

4.{X}'X不可以逆的原因通常有两个:一个是有冗余的特征,一个是因为样本数量远小于特征的数量。可以选择删除多余的特征,来化解这个问题。比如线性相关的特征之类。其中octave中prinv求解的是伪逆矩阵,不存在无法求逆的情况。

5.我们可以从不同的角度来选取定义特征,不用拘泥。可以用不同的多项式去拟合数据。

6.如何调节学习速率\alpha:绘制一个曲线,横坐标为迭代次数,纵坐标为J(误差函数),如果曲线下降的很合适,则认为学习速率选取的合适。学习速率不宜过大,过大会导致无法收敛,过小,收敛速率过慢。

 

                              

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值