机器学习(二)——单变量线性回归

前言:

    吴恩达第二章单变量线性回归笔记

模型描述:

字符表示:

m=数据集数量

x=input(自变量)

y=output(因变量)

 

给出一定量的数据集关于,构建出相应(x,y)的位置.根据算法得到相应的拟合函数(即下图蓝线)

 

 

代价函数:

 

Hypothesis(目标拟合函数):

H_\Theta (x)=\Theta _0+\Theta _1x

Parameters(参数):

\Theta _0 \Theta _1

CostFunction(计算误差):

J(\Theta _0,\Theta _1)=\frac{1}{2m}\sum_{i=1}^m (h\Theta (x^{i})-y^{i})^{2}

Goal(目标):

\min J(\Theta _0,\Theta _1)

 

由     J(\Theta _0,\Theta _1)=\frac{1}{2m}\sum_{i=1}^m (h\Theta (x^{i})-y^{i})    我们可以绘制出如下等高线图

三个坐标分别为\Theta_0  \Theta_1   J(\Theta _0,\Theta _1)

 

 

如何获得\min J(\Theta _0,\Theta _1)? 梯度下降算法

重复以下步骤

repeat until convergence{

    \Theta _j:=\Theta _j-\alpha \frac{\partial J(\Theta _0,\Theta _1))}{\partial \Theta _j}

    for(j=0 and j=1)

}

 

Correct Simultaneous update(正确的更新方式):

temp_0:=\Theta _j-\alpha \frac{\partial J(\Theta _0,\Theta _1))}{\partial \Theta _j}

temp_1:=\Theta _j-\alpha \frac{\partial J(\Theta _0,\Theta _1))}{\partial \Theta _j}

\Theta _0=temp_0

\Theta _1=temp_1

 

α:为learning rate,用来控制下降时的速率

\Theta _0 \Theta _1应同时更新

 

根据高等数学下偏导数知识:

\frac{\partial J(\Theta _0,\Theta _1))}{\partial \Theta _0}=\frac{1}{m}\sum_{i=1}^m(h_\Theta (x^{i})-y^{i})

 

\frac{\partial J(\Theta _0,\Theta _1))}{\partial \Theta _1}=\frac{1}{m}\sum_{i=1}^m(h_\Theta (x^{i})-y^{i})x^{i}

 

总结:

  1. 根据该算法,一步一步算出误差最小时的\Theta _0 和 \Theta _1,来得到理想的拟合函数。理想状态下当J(\Theta _0,\Theta _1)取最小值时,误差时最小的,即当\frac{\partial J(\Theta _0,\Theta _1))}{\partial \Theta _0} 和  \frac{\partial J(\Theta _0,\Theta _1))}{\partial \Theta _1} 两者为0的时候取到最小值。
  2. 由于该算法是一个个测试\Theta _0\Theta _1,逐渐最低点走,因此α的取值相当重要。
    1. 若α太大,可能会导致离最低点越来越远。
    2. 若α太小,得到最低点用的时间可能会很长

 

 

 

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值