通俗理解线性回归(一)

本人已经打算将这一系列博文做成动画趣味科普的形式来呈现,感兴趣的话可以点这里

#0 什么是回归?
假设线性回归是个黑盒子,那按照程序员的思维来说,这个黑盒子就是个函数,然后呢,我们只要往这个函数传一些参数作为输入,就能得到一个结果作为输出。那回归是什么意思呢?其实说白了,就是这个黑盒子输出的结果是个连续的值。如果输出不是个连续值而是个离散值那就叫分类。那什么叫做连续值呢?非常简单,举个栗子:比如我告诉你我这里有间房子,这间房子有40平,在地铁口,然后你来猜一猜我的房子总共值多少钱?这就是连续值,因为房子可能值80万,也可能值80.2万,也可能值80.111万。再比如,我告诉你我有间房子,120平,在地铁口,总共值180万,然后你来猜猜我这间房子会有几个卧室?那这就是离散值了。因为卧室的个数只可能是1, 2, 3,4,充其量到5个封顶了,而且卧室个数也不可能是什么1.1, 2.9个。所以呢,对于ML萌新来说,你只要知道我要完成的任务是预测一个连续值的话,那这个任务就是回归。是离散值的话就是分类。(PS:目前只讨论监督学习)

#1 线性回归
OK,现在既然已经知道什么是回归,那现在就要来聊一聊啥叫线性。其实这玩意也很简单,我们在上初中的时候都学过直线方程对不对?来来来,我们来回忆一下直线方程是啥?
y = k x + b y=kx+b y=kx+b
喏,这就是初中数学老师教我们的直线方程。那上过初中的同学都知道,这个式子表达的是,当我知道k(参数)和b(参数)的情况下,我随便给一个x我都能通过这个方程算出y来。而且呢,这个式子是线性的,为什么呢?因为从直觉上来说,你都知道,这个式子的函数图像是条直线。。。。从理论上来说,这式子满足线性系统的性质。(至于线性系统是啥,我就不扯了,不然没完没了)那有的同学可能会觉得疑惑,这一节要说的是线性回归,我扯这个low逼直线方程干啥?其实,说白了,线性回归无非就是在N维空间中找一个形式像直线方程一样的函数来拟合数据而已。比如说,我现在有这么一张图,横坐标代表房子的面积,纵坐标代表房价。
这里写图片描述
然后呢,线性回归就是要找一条直线,并且让这条直线尽可能地拟合图中的数据点。
那如果让1000个老铁来找这条直线就可能找出1000种直线来,比如这样
这里写图片描述
这样
这里写图片描述
或者这样
这里写图片描述
喏,其实找直线的过程就是在做线性回归,只不过这个叫法更有逼格而已。。。

#2 损失函数
那既然是找直线,那肯定是要有一个评判的标准,来评判哪条直线才是最好的。OK,道理我们都懂,那咋评判呢?其实简单的雅痞。。。只要算一下实际房价和我找出的直线根据房子大小预测出来的房价之间的差距就行了。说白了就是算两点的距离。当我们把所有实际房价和预测出来的房价的差距(距离)算出来然后做个加和,我们就能量化出现在我们预测的房价和实际房价之间的误差。例如下图中我画了很多条小数线,每一条小数线就是实际房价和预测房价的差距(距离)
这里写图片描述
然后把每条小竖线的长度加起来就等于我们现在通过这条直线预测出的房价与实际房价之间的差距。那每条小竖线的长度的加和怎么算?其实就是欧式距离加和,公式如下。(其中y(i)表示的是实际房价,y^(i)表示的是预测房价)
这里写图片描述
这个欧氏距离加和其实就是用来量化预测结果和真实结果的误差的一个函数。在ML中称它为损失函数(说白了就是计算误差的函数)。那有了这个函数,我们就相当于有了一个评判标准,当这个函数的值越小,就越说明我们找到的这条直线越能拟合我们的房价数据。所以说啊,线性回归无非就是通过这个损失函数做为评判标准来找出一条直线。

刚刚我举的例子是一维的例子(特征只有房子大小),那现在我们假设我的数据中还有一个特征是楼间距,那图像可能就是酱紫了。
这里写图片描述
从图我们可以看得出来,就算是在二维空间中,还是找一条直线来拟合我们的数据。所以啊,换汤不换药,损失函数还是这个欧式距离加和。
这里写图片描述


先写到这里,因为如果篇幅太长,对于萌新来说不太友好,而且后面想用人话来聊聊线性回归的正规方程解,所以先蓄个力。

在这里插入图片描述

  • 247
    点赞
  • 546
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 51
    评论
一元线性回归梯度下降法是一种用于求解线性回归模型参数的优化算法。在梯度下降算法中,我们首先定义一个损失函数J(θ),其中θ表示模型的参数。然后通过迭代的方式,不断调整θ的取值,使得损失函数J(θ)的值最小化。 在一元线性回归中,我们假设目标变量y与特征变量x之间存在线性关系。我们的目标是找到一条直线,使得通过这条直线对特征变量x进行预测得到的结果与真实值y之间的误差最小。 梯度下降法的思路是通过计算损失函数J(θ)对参数θ的偏导数,即∂J(θ)/∂θ,来确定参数的更新方向。我们可以通过迭代地更新参数,使得损失函数逐渐减小。 具体步骤如下: 1. 初始化参数θ的值。 2. 计算损失函数J(θ)对参数θ的偏导数∂J(θ)/∂θ。 3. 根据计算得到的偏导数值和学习率的大小,确定参数θ的更新方向和步长。 4. 更新参数θ的值,即θ = θ - 学习率 * ∂J(θ)/∂θ。 5. 重复步骤2-4,直到满足停止条件(如达到最大迭代次数或损失函数值的变化小于设定阈值)。 通过不断迭代更新参数θ的值,梯度下降法可以找到使得损失函数J(θ)最小化的最优参数值。 引用中提到了为什么要使用减法来更新参数,这是因为当偏导数值为负数时,说明当前参数位于损失函数的左侧,需要增大参数值才能靠近极值点。反之,当偏导数值为正数时,需要减小参数值。通过这种方式,梯度下降法可以逐步接近损失函数的最小值。 引用中提到了线性回归中的损失函数J(θ),它是通过将特征变量x的值带入线性回归模型进行预测,然后计算预测结果与真实值之间差值的平方和得到的。梯度下降法的目标就是求解使得损失函数最小化的参数值。 引用中提到了梯度下降算法中的导数项,它表示对损失函数J(θ)对参数θ的偏导数的简化形式。通过计算导数项,可以确定参数的更新方向和步长。 综上所述,一元线性回归梯度下降法是一种通过迭代更新参数的优化算法,用于求解线性回归模型参数使得损失函数最小化的方法。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [一元线性回归梯度下降法(通俗易懂,初学专属)](https://blog.csdn.net/m0_63867120/article/details/127073912)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [梯度下降算法--一元线性回归](https://blog.csdn.net/weixin_44246836/article/details/125128880)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论 51
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

alw_123

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值