机器学习入门(二)一元线性回归

目录

2.一元线性回归 

2.1 什么是线性回归

2.2 代价函数

2.2.1 假设函数

2.2.2 代价函数 

2.3 梯度下降法 

2.3.1 引出问题

2.3.2 梯度下降法

2.3.3 梯度下降法的缩放因子对梯度下降法的影响


2.一元线性回归 

2.1 什么是线性回归

        单元线性回归是拟合一条线,将训练数据尽可能分布到线上。如下图:是一个监督学习(因为给定正确答案对于每一个输入变量:每一个面积对应一个房价)

        我们要解决的问题是拟定一个线性函数使尽可能多的点在直线上并使代价函数最低(后面说),并给出一个新的输入用这条直线进行拟合时能得到尽量满意的结果。

        另外多变量的线性回归称为多元线性回归(比如房价不仅仅受房子面积大小影响,房龄、地段等等)

      简单来说,用训练集去预测房价

      我们定义m为训练集的数量(多少组数据),x是输入变量(特征:这个例子指房子大小),y是输出变量(目标变量:这里指输入特征下的预测结果);

      同时用(x,y)表示一个训练样本,(x^{(i)},y^{(i)})表示训练集的第i个样本。

2.2 代价函数

2.2.1 假设函数

        我们如何评价一个机器学习的好坏?先看下图!

        我们给出训练集,通过学习算法得到假设函数h(x),这样通过输入变量,经过假设函数

h(x),得到输出变量,这样就能预测我们的放假了,那么如何评估假设函数h(x)呢?

        对于一元线性回归,我们的假设函数为h(\theta ) = \theta _{0} + \theta _{1}x,这里\theta _{0},\theta _{1}是待预估参数,那么怎么去选择呢,上图为不同\theta _{0},\theta _{1}的曲线。

2.2.2 代价函数 

        我们用代价函数去描述一元线性回归模型的好坏,一元线性回归代价函数如下:

\jmath (\theta _{0},\theta _{1}) = \frac{1}{2m}\sum_{i=1}^{m}(h_{\theta}(x^{i})-y^{(i)})^{2}

         简单来说,一共有m组样本,对于每一组样本(x^{(i)},y^{(i)}),用假设函数提供的线性回归函数拟合计算真值与假设值的平方差作为代价函数。那么不难看出,代价函数较小的假设函数有较好的拟合效果。

        那么我们先拿过原点的一元函数简单分析下:

         对于每组\theta _{1},我们计算其代价函数值,最后我们画出\jmath (\theta _{1})关于\theta _{1}的函数,选择最低的为最优拟合。

        那么我们现在清晰明了,对于一个一元线性回归问题,我们的假设函数为h(\theta ) = \theta _{0} + \theta _{1}x,其中待训练参数为 \theta _{0},\theta _{1},我们用代价方程来衡量拟合的好坏程度

\jmath (\theta _{0},\theta _{1}) = \frac{1}{2m}\sum_{i=1}^{m}(h_{\theta}(x^{i})-y^{(i)})^{2}

 我们的目标是找出一对\theta _{0},\theta _{1},使得代价方程最小。

         对于双参数,也是一样的,不过它的代价函数与参数的图像类似一个碗,同样不难看出,碗的底部对应了拟合最优秀的点。 

        从等高线图上,我们可以看出:离着中间越远的点,拟合的曲线越离群同时其代价函数函数值很高。

         随着其越靠近中间的小圆,其代价函数值越小,拟合程度越好!如下图所示:

         那么如何使其越来越往中间走呢?或者说怎么找到最优的拟合参数呢?我们下面说的梯度下降法能解决这一问题。

2.3 梯度下降法 

2.3.1 引出问题

        在前面文字所讲述的部分,我们计算出了很多不同参数\theta _{0},\theta _{1}对应代价函数的值\jmath (\theta ),我们想找一个\jmath (\theta )最小的,取其假设函数作为线性回归拟合的方程。

        那么我们的问题来到:

         我们根据机器画出了代价函数\jmath (\theta )与参数\theta _{0},\theta _{1}的关系图如上图,我们想不断改变参数

 \theta _{0},\theta _{1}从而降低代价函数\jmath (\theta )的值,最终得到一个最小值的代价函数作为拟合方程。

        那么问题来了,计算机怎么处理这个行为?①怎么控制不断降低\jmath (\theta )②不同的初始点的选择可能最终有不同的结果(如上图所示)。

2.3.2 梯度下降法

        我们采用梯度下降法作为控制不断降低\jmath (\theta )的方法:

        不断修改\theta _{0},\theta _{1}的值直至收敛:

\theta _{j} := \theta _{j} - \alpha \frac{\vartheta }{\vartheta \theta _{j}}\jmath (\theta _{0},\theta _{1}) \ \ \ \ \ (for \ j = 0 \ and \ j=1)

         为什么右面的计算方法不对呢:要同时修改!

2.3.3 梯度下降法的缩放因子\alpha对梯度下降法的影响

        如何调整缩放因子\alpha以得到代价函数最小的拟合函数?或者选择缩放因子过大过小对梯度下降法有什么影响呢?

         如果代价函数的缩放因子太小,导致梯度下降的时间边长,浪费系统资源,但可以得到最终结果。

         如果代价函数的缩放因子太大,可能会导致震荡最终无法收敛。

         不过,即使不调整梯度下降的因子,其下降步长也会逐渐变小,即偏导数项在慢慢变小(曲线变平,导数下降)。因此,不用动态调整梯度下降因子最终也会收敛。

         我们把导数项展开,便得到了以下形式。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

APS2023

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值