是使得代价函数最小码 随机梯度下降_利用梯度下降法学习线性回归模型(结合R语言)...

6ed0229cc7e788590e84cbbed927c25e.png

线性回归是最简单的机器学习算法,许多博客已经讲了很清楚了,而这其中有许多是参考了Andrew Ng(吴恩达)的教学视频。这篇文章以简洁的方式回顾利用梯度下降法学习线性回归模型。需要注意的是,与统计中经典的回归分析不同,机器学习是给计算机以训练集,让它“学习”出模型,而经典的回归分析则是人为地“估计”出回归系数。并且,机器学习无需经典的回归分析中繁琐的条件(Gauss-Markov假定等),适用性更广。而且当特征变量较多(在经典统计中叫自变量、解释变量、外生变量等),机器学习的效率更高。

我们回到线性回归模型。先考虑最简单的只有一个特征变量的情形。我们假定需要机器“学习”出来的模型为:

equation?tex=h_%5Ctheta%28x%29%3D%5Ctheta_0%2B%5Ctheta_1x

这里的

equation?tex=h取的是hypothesis的首字母。这里参数
equation?tex=%5Ctheta_i%5Cin+%5Cmathbb+R%28i%3D0%2C1%29。同经典回归分析一样,我们的目标在二维实平面上确定
equation?tex=%28%5Ctheta_0%2C%5Ctheta_1%29,使得样本点到模型的距离在平方和的意义下达到最小。不过再次强调一遍,机器学习是让计算机通过训练集将模型”
学习“出来,给出算法和程序后计算机会自动的从二维实平面中 选择一对
equation?tex=%5Ctheta满足这个条件。为此,我们定义
代价函数(Cost Function)
equation?tex=%5Cbegin%7Baligned%7DJ%28%5Ctheta_0%2C%5Ctheta_1%29%3D%5Cfrac%7B1%7D%7B2m%7D%5Csum_%7Bi%3D1%7D%5Em%5Cleft%28h_%7B%5Ctheta%7D%28x%5E%7B%28i%29%7D-y%5E%7B%28i%29%7D%29%5Cright%29%5E2%3D%5Cfrac%7B1%7D%7B2m%7D%5Csum_%7Bi%3D1%7D%5Em%5Cleft%28%5Ctheta_0%2B%5Ctheta_1x%5E%7B%28i%29%7D-y%5E%7B%28i%29%7D%5Cright%29%5E2%5Cend%7Baligned%7D

其中

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值