吴恩达机器学习笔记5——多变量线性回归

第5章 多变量线性回归

1,多功能

2,多元梯度下降法(Gradient Descent for Multiple variabls)

Hypothesis假设:h_\theta(x)=\theta^Tx=\theta_0x_0+\theta_1x_1+\theta_2x_2+...+\theta_nx_n

Parameters参数:\theta_0,\theta_1,\theta_2,...\theta_n

          n+1维向量\theta

Cost function 代价函数:J(\theta)=\frac{1}{2m}\sum_ {i=1}^{m}(h_\theta(x^{(i)})-y^{i})^2

Gradient descent:

Repeat{

\theta_j:=\theta_j-\alpha\frac{\partial }{\partial\theta_j}J(\theta)

}

每一个j=0,...,n同时更新

3,特征缩放(feature scaling)

如上图,进行梯度下降法,可能要来来回回很多步之后才能到达最优点。

所以可以进行特征缩放,让x1x2的范围足够接近,减少求解步数。

均值归一化,通用的公式,x_1\rightarrow \frac{x_1-\mu_1}{s_1}

\mu_1是x1平均值,s1是x1最大值减最小值,求得范围,也可以用标准差。

这些缩放不用特别精确,目的只是为了加快运行速度。

4,学习率(如何进行调试,如何选择学习率)

很难判断需要多少步收敛,所以经常画出代价函数的曲线来看是否收敛。

取学习率,太大不收敛,太小就太慢

可以多取几个学习率,比如按3的倍数取,逐个试,找到太大和太小的学习率。

取最大可能值,或比最大值略小的。

5,特征和多项式回归(polynomial regression)

观察后觉得,直线不能很好地拟合。采用多项式来拟合。

在多项式拟合情况下,要注意特征缩放,否则特征的范围容易有很大差别。

多项式拟合的模型有多种。

6,正规方程(区别于迭代解法的直接解法)Normal equation

正规方程推导见:https://blog.csdn.net/chenlin41204050/article/details/78220280

最速下降法

优点:在特征变量很多的情况下也能运行很好;

           n远大于10^4时,选取它快一些。

缺点:需要选择最优学习率\alpha

           需要迭代多次。

正规方程法:

优点:不需要选择最优学习率\alpha

           不需要迭代多次。不用画J曲线。

缺点:需要计算(X^TX)^{-1},是一个n*n的矩阵,实现的代价以矩阵纬度的三次方增涨,O(n^3)

           因此n很大时,计算速度很慢。n小于10^4可以采用。

6,正规方程在矩阵不可逆情况下的解决方法

Octave中,pinv是伪逆,inv是逆。即使不可逆,pinv也可以运行。

出现不可逆,往往有两种原因,一个是有多余的特征值,比如x1和x2是有线性关系的,可以删除多余特征。

另一个是有太多的特征值,比训练样本还要多,可以去掉一些特征值,或者使用正则化的方法。

 

 

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值