斯坦福Andrew Ng---机器学习笔记(一):梯度下降

转载自:https://blog.csdn.net/xiaocainiaodeboke/article/details/50371986

写在前面的话

一直对机器学习非常感兴趣,现在终于脚踏式的开始了。自己感觉很开心,而且也是看着Andrew Ng老师的视频自学。想用博客记录下自己学习机器学习的点滴。
Andrew Ng老师,中文名:吴恩达(1976-),华裔美国人,是斯坦福大学计算机科学系和电子工程系副教授,人工智能实验室主任。吴恩达是人工智能和机器学习领域国际上最权威的学者之一。吴恩达也是在线教育平台Coursera的联合创始人(with Daphne Koller)。现在是百度人工智能实验室的首席科学家。

Andrew Ng机器学习的分类

Andrew Ng老师的这套视频是斯坦福的公开课,在网易公开课上可以找到。Andrew Ng老师的机器学习分类主要有4类:

  • 监督学习(Supervised Learning)
  • 学习理论(Learning Theory)
  • 无监督学习(Unsupervised Learning)
  • 强化学习(Reinforcement Learning)

梯度下降

梯度下降是基于迭代的算法,但正规方程(normal equations)可以一步求解最优解。什么是正规方程可以在博客的正规方程这个小标题中看到,当然你也可以去百度等等。

问题

这是我最喜欢的一种授课方式,发现问题,然后讲述怎么去解决问题,同时引出相应的理论。
Andrew Ng老师举得例子是房子关于价格的例子,即给出一组房屋价格与卧室数量,房屋面积的对应关系。如下图:

1.png

我们要完成的任务是:给定一个房屋的面积和卧室的数量预测出他的价格。
我们的解决方案是,根据已知的数据进行拟合。这就是监督学习,所谓的监督就是先前有一组正确数据作为训练,经过这组数据训练之后就可以进行房屋价格的预测了。我们先简化问题,只给出房屋面积与价格的对应的关系,把这组数据绘制到二维坐标系中,便可以看到很多散点。比如像这样:

2.png

我们通过这组点可以的到一个形如 y=a+bx” role=”presentation” style=”position: relative;”>y=a+bxy=a+bx),我们遵循传统的命名方式就可以得到如下形式的方程:

3.png

其中式子的最后是向量的乘法,展开就和前面的相等了。
得到了这个式子,但是我们的评价他的好坏。思想就是计算这个式子在给定x” role=”presentation” style=”position: relative;”>xx函数的好坏了。
我们换个思想,把h” role=”presentation” style=”position: relative;”>hh。给出的评价函数的样子如下:

4.png

其中的1/2” role=”presentation” style=”position: relative;”>1/21/2完全是为了计算的方便,在后面你就会看到。
下面的我们的主要任务就是去找一组θ” role=”presentation” style=”position: relative;”>θθ的值最下。这类问题称之为无约束最优化问题。梯度下降法就是其中的一种方法。

我们求解的问题中有多个θ” role=”presentation” style=”position: relative;”>θθ的多元函数。与之相关的有一个称之为梯度的概念(你可以在高等数据的课本中找到),他说的意识是函数沿着梯度方向的函数值增长最快。我们现在要使得目标函数最下,即就是要找最快的下降方向。那么负梯度方向就是下降最快的方向。梯度的求法就是对目标函数的所有因变量求偏导。
梯度下降法的核心思想就是,给定一个初始点,在该点处求其梯度,迭代得到下一个θ” role=”presentation” style=”position: relative;”>θθ点。直到梯度为零时结束。

为什么是梯度为零时结束
当迭代点是最优时,其对应的梯度为零称之为无约束问题解得一阶必要条件
证明的核心思想是利用最优点处利用泰勒展开,因为已经是最优点,所以在其附近的点函数值近似相等,便可以得到梯度为零的结论
详细证明参见 李董辉 数值最优化算法与理论(第二版)19页

可以得到θ” role=”presentation” style=”position: relative;”>θθ的迭代式子为:

5.png

其中的α” role=”presentation” style=”position: relative;”>αα的偏导过程如下:

6.png

在这里你就看到,我们在构造J(θ)” role=”presentation” style=”position: relative;”>J(θ)J(θ)时1/2的出现就是为了与指数的在求导时抵消。
经过简单的替换之后我们就可以得到θ” role=”presentation” style=”position: relative;”>θθ新的迭代公式:

7.png

进而根据我们之前说的思想得到算法的描述如下:

8.png

另一种解决方案:正规方程

如下图圆圈表示函数的等值线,在算法收敛到最优点时收敛速度太慢,或者由于步长选择不当,使得我们在最优值附近摇摆。

9.png

关于矩阵的一些预备知识

函数f” role=”presentation” style=”position: relative;”>ff的矩阵到实数域的映射,对其求梯度可以表示为如下形式:

10.png

例如:
11.png
函数为:
12.png
则求梯度为:
13.png

矩阵的迹为矩阵的对角元素之和。表示形式如下:

14.png

Andrew Ng还在课上将了一些迹的性质(我也没有证明,只是验证了一下)

15.png

16.png

还有一些关于梯度的性质:

17.png

这些性质我没有证明,但是可以验证是正确的。

正规方程(normal equations)

求正规方程的思想是将所有数据写到矩阵中通过矩阵的运算一步得到最优的解。首先将所有的自变量数据都写到一个矩阵中,比如前面问题中的房屋面积大小,卧室的个数等等。形式如下:

18.png

其中x” role=”presentation” style=”position: relative;”>xx
再将所有因变量写在一起构成列向量,比如前面问题中的房屋价格。形式如下:

19.png

前面说过的线性方程模型就可以写成如下形式:

20.png

然后在利用前面矩阵X” role=”presentation” style=”position: relative;”>XX,可以进行如下的构造:

21.png

我们知道:

22.png

其中z” role=”presentation” style=”position: relative;”>zz的矩阵表达形式:

23.png

做如下推导:

24.png

这个推导过程不是很好理解,我自己做了如下推导:

25.png

由无约束问题解得一阶必要条件,可以得到J(θ)” role=”presentation” style=”position: relative;”>J(θ)J(θ)求梯度结果为零。则可以得到:

26.png

这个式子称为正规方程(normal equations)。
从而可以得到J(θ)” role=”presentation” style=”position: relative;”>J(θ)J(θ)的最优值为:

27.png

可以看出利用前面构造的矩阵一步就可以求出来。但是这里需要求XTX” role=”presentation” style=”position: relative;”>XTXXTX的逆,这不并不总是很容易。

参考文献

[1] 李董辉 数值最优化算法与理论(第二版)科学出版社
[2] Andrew Ng 斯坦福公开课


end

        <link rel="stylesheet" href="https://csdnimg.cn/release/phoenix/template/css/markdown_views-ea0013b516.css">
            </div>
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值