机器学习——简单线性回归算法(Linear Regression)

线性回归

  • 解决回归问题
  • 思想简单
  • 许多强大的非线性模型的基础
  • 结果具有很好的可解释性
  • 蕴含机器学习中的很多重要思想
    在这里插入图片描述
    在上图坐标上,每一个点都表示一个数据, 假设是房产价格的数据。线性回归算法说我们认为房屋的面积和价格成一定的线性关系,也就是说随着房屋面积的增大,价格也会增大,并且增大是线性的。
    在这里插入图片描述
    那么在这种假设下,找到一条直线,希望最大程度的“拟合”样本特征和样本输出标记之间的关系。对于上图来说,样本特征是房屋面积,房屋价格为输出标记。
    区别于分类问题,分类问题坐标轴横纵轴是两个样本特征,而输出标记是用标记点的颜色进行表示的,而回归问题只有横轴表示一个样本特征,纵轴房屋价格就是输出标记。分类问题需要预测是一个具体的数值,这具体数值是在一个连续的空间里的,而不是简单的用不同的颜色代表不同的类别。
    在这里插入图片描述
    如果需要看有两个样本特征的回归问题,那么就需要在三维空间进行观察。样本特征只有一个,称为简单线性回归;样本特征有多个成为多元线性回归。
    在这里插入图片描述

假设我们找到最佳拟合的直线方程:y=ax+b

则对于每一个样本点 x   i x~i x i

根据我们的直线方程,预测值为:

y ^   i = a x   i + b \hat{y}~i = ax~i+ b y^ i=ax i+b

真值为:$ y~i$

我们希望 y ^   i \hat y~i y^ i y   i y~i y i的差距尽量小,也就是 y   i − y ^   i y~i - \hat{y}~i y iy^ i,但是可能存在差值为正为负的情况,无法直接使用减法。 ∣ y   i − y ^   i ∣ |y~i - \hat{y}~i| y iy^ i 使用绝对值的形式虽然可以求得预测值与真值的差距,但是 y = a ∣ x ∣ + b y = a|x| + b y=ax+b并非处处可导,对于后续求取参数a、b的值时不方便。

采用 ( y   i − y ^   i ) 2 (y~i - \hat{y}~i)^2 (y iy^ i)2 的形式来衡量预测值与真值之间的差距,
所以我们考虑所有的样本: ∑ i = 1 m ( y   i − y ^   i ) 2 \displaystyle \sum^{m}_{i=1}(y~i - \hat{y}~i)^2 i=1m(y iy^ i)2

所以我们的目标是使 ∑ i = 1 m ( y   i − y ^   i ) 2 \displaystyle \sum^{m}_{i=1}(y~i - \hat{y}~i)^2 i=1m(y i

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值