回归特征选取_单变量线性回归

e8d37c6b1aef27566a4897513a02e0f6.png

1. 单变量线性回归的定义
2. 梯度下降算法
3. 梯度下降的线性回归

单变量线性回归的定义

线性回归是一种有监督的学习,解决的是自变量和因变量之间的关系。本次学习的是单变量线性回归。回归指的是因变量是连续性的,而如果因变量是离散型的,则是分类问题。比如房子的面积与房价之间的关系,这是回归问题。而一个人是否逾期是一个分类问题。

监督学习算法的工作方式可以用如下这张图表示:

d8e51df9b36ce33d2d8a1af1d596d133.png

将训练集喂给机器学习算法,输出一个假设函数 h,然后新输入一个自变 x 到假设函数内,然后输出一个因变量 y 值。

单变量线性回归指的是只有一个自变量。有如下这样一个训练集,特征为房子的大小,因变量是房价。那么对于一个新的房子的大小,我们如何根据历史的数据来预测出来该房子的价格呢?

fe079de935e4af3f36eb8797198fbf79.png

一些标注如下:
m 代表训练集中实例的数量
x 代表特征或者输入变量
y 代表目标变量或者输出变量
(x,y) 代表训练集中的实例

0c0e373e11fa6e2f2062db5c405223c6.png

根据如上数据:我们在一个xy轴上面标注这些点,然后预设一个假设函数:

906fbe202b4b8802e26463ccb5017af1.png

选择不同的参数值,就会得到不同的直线。对于假设函数所预测出来的值和实际值之间的差距就是建模误差,也就是存在着一个代价函数。
代价函数的公式如下:

5e015cb8bd13a9aec6a19c785bb5989d.png

我们的目标就是减少假设函数预测数来的值和实际值之间的差距,也就是让代价函数最小。而让代价函数最小,就需要我们选择合适的参数值。

这个方法定义的J(θ)在最优化理论中称为凸(Convex)函数,即全局只有一个最优解,然后通过梯度下降算法找到最优解即可,梯度下降算法的函数如下:

dab38c461daed60f5d9396d012ffa36b.png

梯度下降算法

在这个公式当中,

是学习率,控制着梯度下降算法移动的大小,如果
过小,那么梯度下降算法就一点点地移动,那么可能需要很长的时间才能够找到全局最小值;如果
过大,那么又有可能会导致梯度下降算法找不到最小值,甚至导致代价函数无法收敛。

3ea4a333d51fa56075a2b9a2fc38a9e2.png

对于公式里面的偏导数,无论是正导数还是负导数,最终都会使得

的值无限接近
的最小值处。

如下图所示,可以自己推导:

9cec9d50c862df583b19fa4e04d09a1b.png

梯度下降算法的步骤:

  1. 先预设一个初始的参数值
  2. 然后一直不断地改变这个参数值,来减小代价函数
  3. 直到最后代价函数达到一个最小值或者局部最优解。

梯度下降算法可以用如下的图片来解释,这样比较清楚:

570ae59c2865bbb1f5f5d11bd4cc9f7f.png

570ae59c2865bbb1f5f5d11bd4cc9f7f.png

还有一个有意思的问题,当我们选取的 一开始就让我们的代价函数在全局最小值,那么情况会怎么样呢?

根据梯度下降算法的公式可以知道,当

在全局最小值处时,偏导数就为0,那么就意味着无论梯度下降算法如何迭代, 还是原来的
值,就没有发生变化,也就是梯度下降算法不再迭代了。

梯度下降的线性回归

在这一小节中,我们将上面的梯度下降算法和线性回归结合起来,这样就可以利用梯度下降算法来求出线性回归代价函数的全局最优解了。

80bd901922049999b16d5601f75735e2.png

2a83fda5e42449e77149f189e539001b.png

参考文献:
吴恩达机器学习

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值