最小二乘法(least squares)

本文介绍了最小二乘法的概念,作为曲线拟合和损失函数的使用,通过数学公式展示了如何求解直线方程的参数。同时,文章提到了最小二乘法与极大似然估计(MLE)的相似之处,并对两者进行了简要对比。最后,提供了多维线性求解的损失函数和Python代码示例。
摘要由CSDN通过智能技术生成

都忘了,再回顾一下:
参考知乎 https://www.zhihu.com/question/20447622 该问题下面的部分回答:

建议有时间的把问题下面的所有答案都过一遍,这样可以通过不同的切入点来更好的理解。

最小二乘法,也叫最小平方法,在古汉语中“平方”称为“二乘”,“最小”指的是参数的估计值要保证各个观测点与估计点的距离的平方和达到最小。(记得赟哥解释过,这个方法起源于日本,就直接拿过来用了,其实最小平方法更好理解一点)

最小二乘作为一种损失函数,也用做曲线拟合(曲线拟合求参数也是利用最小化平方的方法,其实也是作为一种损失函数,两个作用可以认为是一致的)

在直线的 y = ax + b中,通过给定的几个点(x1, y1), (x2, y2), (x3, y3)然后求出参数 (a, b), 根据给出的点列出方程组,然后令:
S(a,b)(y1(ax1+b))2+(y2(ax2+b))2+(y3(ax3+b))2
然后使 S(a,b) 最小化, 对a 和 b 分别求偏导,令其等于0, 求得a 和 b 的估计值。

上面这个过程是不是跟极大似然估计(MLE)的过程有点像,下面我们再回顾一下MLE做一下对比:
首先MLE使在已知分布的条件下根据一些样本来估计参数的方法:
将 y = ax + b 扩展到多维的情况,
f(x)=dj=1xjwj+ϵ=xw+ϵ
其中 xj1×d ,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值