机器学习

什么是多元线性回归

我们知道   y =   a x + b % \f is defined as f(#1) using the macro \ y = % \f is defined as f(#1) using the macro \ ax+b  y= ax+b是一元一次方程, y = a x 1 + b x 2 + c y=ax1+bx2+c y=ax1+bx2+c 是二元一次方程.其中,"次"指的是未知数的最大幂数,“元"指的是表达式中未知数的个数(这里就是x的个数).那么"多元"的意思可想而知,就是表达式中x(或者叫自变量,也叫属性)有很多个.
当b=0时,我们说y=ax,y和x的大小始终符合y/x=a,图像上任意一点的坐标,y值都是x值的a倍.我们把这种横纵坐标始终呈固定倍数的关系叫做"线性”.线性函数的图像是一条直线.所以我们知道了多元线性回归函数的图像一定也是一条直线.
现在我们知道了多元线性回归的多元和线性,而回归的概念我们在人工智能开篇(很简短,请点搜索"回归"查看概念)中有讲述,所以多元线性回归就是:用多个x(变量或属性)与结果y的关系式 来描述一些散列点之间的共同特性.
这些x和一个y关系的图像并不完全满足任意两点之间的关系(两点一线),但这条直线是综合所有的点,最适合描述他们共同特性的,因为他到所有点的距离之和最小也就是总体误差最小.
所以多元线性回归的表达式可以写成:
y = w 0 x 0 + w 1 x 1 + w 2 x 2 + . . . + w n x n y= w0x0 + w1x1 + w2x2 + ... + wnxn y=w0x0+w1x1+w2x2+...+wnxn (0到n都是下标哦)
我们知道y=ax+b这个线性函数中,b表示截距.我们又不能确定多元线性回归函数中预测出的回归函数图像经过原点,所以在多元线性回归函数中,需要保留一项常数为截距.所以我们规定 y = w 0 x 0 + w 1 x 1 + w 2 x 2 + . . . + w n x n y= w0x0 + w1x1 + w2x2 + ... + wnxn y=w0x0+w1x1+w2x2+...+wnxn中,x0=1,这样多元线性回归函数就变成了: y = w 0 + w 1 x 1 + w 2 x 2 + . . . + w n x n y= w0 + w1x1 + w2x2 + ... + wnxn y=w0+w1x1+w2x2+...+wnxn,w0项为截距.
如果没有w0项,我们 y= w0x0 + w1x1 + w2x2 + … + wnxn就是一个由n+1个自变量所构成的图像经过原点的直线函数.那么就会导致我们一直在用一条经过原点的直线来概括描述一些散列点的分布规律.这样显然增大了局限性,造成的结果就是预测出的结果函数准确率大幅度下降.
有的朋友还会纠结为什么是x0=1而不是x2,其实不管是哪个自变量等于1,我们的目的是让函数 y= w0x0 + w1x1 + w2x2 + … + wnxn编程一个包含常数项的线性函数.选取任何一个x都可以.选x0是因为他位置刚好且容易理解.
————————————————
版权声明:本文为CSDN博主「winrar_setup.rar」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/weixin_39445556/article/details/81416133

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值