吴恩达机器学习笔记—单变量线性回归模型的构建过程

上个博文里面学习了监督学习和非监督学习的概念及区别,关于其知识就不做过多的介绍。线性回归就是用于监督学习的主要模型。在监督学习中,所给的数据集,有对应的‘’正确答案‘’,我们怎么根据数据集建立一个预测模型,使得我们预测结果更正确呢?下面是我学习单变量线性回归的一些笔记:学习单变量线性回归主要包括三部分内容:假设函数、代价函数、梯度下降

1、假设函数

     以房价预测的为例,所给的数据集,有对应的‘’正确答案‘’,即这些数据样本中,每个房子大小x都有一个出售的价格y。我们建立一个假设函数h(x),这个函数能尽可能的反映x与y的关系,这个函数ed31af524d2b786c57a6eca417c15744c06.jpg称为假设函数。

45d400f5a8629aafe7ba36ea25b26855414.jpg

901646c4669dccb7ca295ad047edd44f69e.jpg

2、代价函数:用于评估模型的效果

     我们得到假设函数ed31af524d2b786c57a6eca417c15744c06.jpg,如何确定参数a76924520316eb6a03edceff539bca9e1c1.jpg2aa1ed62045e63a82083a9a711c3e9cf228.jpg,才能是计算出来的h(xi)最接近yi,当然最好的结果是h(xi)=yi。所以这里构建了一个代价函数,32a6a29990f0624ca68f13fa26aeb079301.jpg,也是我们假设函数预测的结果与“正确答案”的平均方差的二分一。min(fdb37fa3a41ef097c41f0fe4277c1a721a3.jpg)就是我们的目标函数。

75f5584c5090163cf81fb7ffcc2f8884624.jpg

       以单参数的代价函数为例,参数6d3ca0524dcf1a82386e36a24a59604bd34.jpg不同的取值,min(24d0761f64e3cbe79c7510e3bf8b24cae70.jpg)不同,可以得到6d3ca0524dcf1a82386e36a24a59604bd34.jpgb93e1a72968d8db940011093dde9fd98ba8.jpg的对应关系如下图,我们希望我们预测出来的h(xi)-yi最小,即be0e8986081690307fdc6b8dd6f61c7f35d.jpg最小值相对应的6d3ca0524dcf1a82386e36a24a59604bd34.jpg就是我们需要的6d3ca0524dcf1a82386e36a24a59604bd34.jpg

134edade25f775987a9bf89a724d89d5ee6.jpg

我们的房价预测的例题中,代价函数有两个参数4edf2f77f65aac384ecc93fc3d4b289841e.jpg73df3786ca35ceebab7a729060deca81020.jpg

d6d30342610a2d04b1144f982ef72dc399c.jpg

我们的cd3b5c1af4304f1c26f7a9db4706f2d672d.jpg1234a65c10587ef8d2a3b46598851e27585.jpg的关系图,如下。我们求的目标函数0a1e5066178f20af375e88037c7c91e2fc3.jpg的最优点就在凹点。

106895613b0bce76f795d10b2cdfbff2795.jpg

3、梯度下降:用于自动寻找代价函数的局部最优解(线性回归模型的代价函数是一个凹函数,只有一个局部最优解,也是全局最优解。)梯度下降的主要特点是:参数同步更新。

如何求解这个代价函数67f06198b47cb23bac856304c1cb22e5a2b.jpg的最小值,我们也不能每次都画出参数组c5f7e265e60d8f6ce67a63620e0f4569fcd.jpg与J的关系的关系图,再用肉眼去寻找这个最低点,尤其当参数数量较大时,我们怎么能快速得到代价函数J 所对应的参数组的c5f7e265e60d8f6ce67a63620e0f4569fcd.jpg取值?吴老师的课堂上提出了利用梯度下降去快递找到代价函数的局部最优解。(求解代价函数最小值的方法:①梯度下降(大数据,多参数);②正规化方程组)

①梯度下降介绍

梯度下降的公式如下图,766f2fdad96c2602fba5d06166a4bad65d5.jpg表示代价函数中的某个参数,d9e8ffc92327e1fa8fb8385f509fe32db49.jpg为参数移动步长,53e90f8a0d7644b2f6547e452f574fd8b03.jpg该项为代价函数对766f2fdad96c2602fba5d06166a4bad65d5.jpg偏导数。

c7c9ee058f072df102fce347f138c85145e.jpg

 

e1130064fefb7985d865326b99ed138a33d.jpg

054719d90ad847648a7939d4a8108bfc7b9.jpg取值太小,或过大都不容易找到局部代价函数的J最小值,具体过程如下

158ddef6c29045eab58625cbe7ae6580a7d.jpg

e074ccb25f164977210c9d6d79dfb6f1018.jpg为代价函数对766f2fdad96c2602fba5d06166a4bad65d5.jpg偏导数,即J_33ab6c427026a4fc629a2f0d4d94077d3d0.jpg关系图相对于该点的切线,如下图

330195052fe3e9cf1b4a7643da0c648de4b.jpg

②了解梯度下降觉得的原理之后,我们这里要解决的问题是,如何将梯度下降应用到代价函数4131dee01e289ad81b790f6fd0699367152.jpg中去,求解min(J)?

这是我们线性规划公式及求解所需要的公式:

1adb5038c8e92b334237c7a0688d013824d.jpg

48621f5f57c014e3fc547ef5614d790f02d.jpg代入梯度下降进行计算,并同步更新942b24d8ed8bde20b0f8627c878a14c048f.jpg9df60ea6d0d0217756d4082db906aa1f013.jpg,如图

ce32fe4cc0fd084c44f6bf4329b8054a3de.jpg

      迭代计算,找到代价函数最小的参数组9efece21dc18e71430bf6d2618f2ab328ea.jpg的值,将计算出来的f64792cc064aced1344cb250594103bb360.jpg代回6aa92cb148672f4dff384c3f6c335c7392b.jpg,得到的h(x)即为,我们较好预测房价的线性回归模型。

转载于:https://my.oschina.net/u/3767735/blog/1838251

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值