【机器学习】线性回归与代价函数

上一章——监督学习与无监督学习


模型描述

回到上一章的第一个例子,依旧是卖房子
在这里插入图片描述
所有的数据点都拥有Price和Size两个属性/特征,我们根据它的属性制作了一个数据表
在这里插入图片描述
我们将上面这些数据的集合称之为数据集,而若用它来进行机器学习训练便称其为训练集
而机器学习的目的就是通过给出的训练集来学习如何预测房价
其中m代表训练集的数据量
x代表训练集的输入的特征
y代表训练集的输出的目标变量
用( x ( i ) , y ( i ) ) x^{(i)},y^{(i)}) x(i),y(i))来表示对应的元素,其中i为行索引标号
如( x ( 1 ) , y ( 1 ) ) x^{(1)},y^{(1)}) x(1),y(1))为(2104,460)

一个简单的机器学习流程图如下:
在这里插入图片描述
对于学习算法,我们给出一个训练集,用这个训练集来构建假设函数h,最终向h输入自变量x,就可以得到目标变量y


线性回归

在这里插入图片描述在这个图片中,我们画出了一条直线来进行拟合,虽然不太准确,不过一条直线是最简单的拟合方式
也就是说我们的假设函数h是一条线性函数,即h=ax+b的形式,我们用θ来表示其中的系数
线性假设方程: h θ ( x ) = θ 0 + θ 1 x h_θ(x) =θ_0+θ_1x hθ(x)=θ0+θ1x

在这里插入图片描述
很显然并不是所有点都会落到我们要找的线性方程上,但是我们可以找到一个最合适的线性方程
而判断这个线性方程是否最合适,我们需要用到最小二乘法,借用其他博主的描述:

最小二乘法

————————————————
最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差(真实目标对象与拟合目标对象的差)的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。

  • 最小二乘法还可用于曲线拟合。对于平面中的这n个点,可以使用无数条曲线来拟合。要求样本回归函数尽可能好地拟合这组值。综合起来看,这条直线处于样本数据的中心位置最合理。
    选择最佳拟合曲线的标准可以确定为:使总的拟合误差(即总残差)达到最小
  • 最小二乘法也是一种优化方法,求得目标函数的最优值。并且也可以用于曲线拟合,来解决回归问题。回归学习最常用的损失函数是平方损失函数,在此情况下,回归问题可以著名的最小二乘法来解决。

简而言之,最小二乘法同梯度下降类似,都是一种求解无约束最优化问题的常用方法,并且也可以用于曲线拟合,来解决回归问题。
————————————————
【版权声明:本文为CSDN博主「THE@JOKER」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/W1995S/article/details/118153146
————————————————

下面给出最小二乘法求θ的公式:
min ⁡ θ 0 , θ 1 ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 \displaystyle\min_{θ_0,θ_1} \displaystyle\sum_{i=1}^m\bigg(h_θ(x^{(i)})-y^{(i)}\bigg)^{2} θ0,θ1mini=1m(hθ(x(i))y(i))2
即最终的 θ 0 , θ 1 θ_0,θ_1 θ0,θ1的值使得最小二乘法的结果和最小
其中线性假设方程: h θ ( x ) = θ 0 + θ 1 x h_θ(x) =θ_0+θ_1x hθ(x)=θ0+θ1x
为了方便,我们将其定义为关于 θ 0 , θ 1 θ_0,θ_1 θ0,θ1的代价函数 J J J,
J ( θ 0 , θ 1 ) = 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 J(θ_0,θ_1)=\cfrac{1}{2m}\displaystyle\sum_{i=1}^m\bigg(h_θ(x^{(i)})-y^{(i)}\bigg)^{2} J(θ0,θ1)=2m1i=1m(hθ(x(i))y(i))2
其中乘以 1 2 m \cfrac{1}{2m} 2m1是为了使数据标准化来方便图像处理的,
由于回归算法的算术复杂度是 O ( n 3 ) O(n^{3}) O(n3),因此数据范围不能太大,需要通过标准化数据来控制大小

.
最终得到简化的公式:
min ⁡ θ 0 , θ 1 J ( θ 0 , θ 1 ) \displaystyle\min_{θ_0,θ_1}J(θ_0,θ_1) θ0,θ1minJ(θ0,θ1)


代价函数与假设函数

在这里插入图片描述
当我们的假设函数 h h h如左图所示,此时 θ 0 = 0 , θ 1 = 1 θ_0=0,θ_1=1 θ0=0,θ1=1完美拟合了给出的三个点,显然 h h h是一条经过原点的直线
那么作出以 θ 1 θ_1 θ1为横轴, J ( θ 0 , θ 1 ) J(θ_0,θ_1) J(θ0,θ1)为纵轴的代价函数 J J J的图像,用红X标出结果
同理改变 θ θ θ值作出其他图像
在这里插入图片描述
如果你改变的次数足够多,用描点法会发现当 θ 0 = 0 θ_0=0 θ0=0 J ( θ 1 ) J(θ_{1}) J(θ1)的图像类似于开口向上的二次函数
在这里插入图片描述
而最佳的位置当然是全部拟合的那幅图,对应的位置是图中二次函数的最低点
因此,实际上机器学习的目的就是找到这个代价函数的最低点
在上述例子中我们将 θ 0 = 0 θ_0=0 θ0=0作为定值,而如果其也作为变量的话,我们会得到一个三维图

在这里插入图片描述

比如对于这个训练集,我们得到的三维代价函数图是这样的

在这里插入图片描述
可以看到这是一个碗形图,那么最佳代价函数的位置当然是处于碗底的那个点,如何去找到这个点呢?
虽然我们难以直观地看到三维图像,但是我们可以使用等高线图将其平铺到二维
在这里插入图片描述
在上面这个等高线图中,越往内越接近图像的最低点,这样就能直观地找到该点对应的 θ θ θ
在这里插入图片描述
最终我们找到了这个点,使得假设函数中各离散点到拟合直线的距离差的平方之和最小,则此时所取的 θ θ θ即为最佳的系数。


下一章——梯度下降

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值