![fdec60e3790446a09e6a819ab5b66fac.png](https://img-blog.csdnimg.cn/img_convert/fdec60e3790446a09e6a819ab5b66fac.png)
本篇文章只做知识的搬运工。
本文目录:
点估计:极大似然估计,最小二乘估计,贝叶斯估计。
区间估计:正态总体且方差已知,或非正态总体、大样本,方差未知;正态总体、方差未知、小样本;总体比例的区间估计; 大样本不重复抽样估计;总体方差的区间估计;
样本量确定:估计总体均值时样本量的确定,估计总体比例时样本量的确定
参数估计包括点估计和区间估计两类。
点估计
点估计(point estimate)是用样本统计量的某个取值直接作为总体参数的估计值。例如,用样本均值x直接作为总体均值μ的估计值,用样本方差s2直接作为总体方差σ2的估计值。点估计的方法有:矩估计法、顺序统计量法、最大似然法、最小二乘法、贝叶斯估计法。
这篇文章主要介绍极大似然估计,最小二乘估计,贝叶斯估计。
勒让德的最小二乘法
最小二乘法是一种数学优化技术,它通过最小化误差的平方和寻找数据的最佳函数匹配。
我们来理解最小二乘回归的本质:
我们得到n组观测值,但真实值只有一个,该如何办?
![8599f351781396e1bc1e4bf19d11a5b2.png](https://img-blog.csdnimg.cn/img_convert/8599f351781396e1bc1e4bf19d11a5b2.png)
首先想到的是取n组观测值的平均值来当作“真实值”,这样靠谱吗?
![df756e92f892317ced571f5c50d3f6b9.png](https://img-blog.csdnimg.cn/img_convert/df756e92f892317ced571f5c50d3f6b9.png)
就有人(勒让德)提出最小二乘的思路:
![4c37c6bfe4b62f5fab73199e65730089.png](https://img-blog.csdnimg.cn/img_convert/4c37c6bfe4b62f5fab73199e65730089.png)
于是,我们对y求导
![33c4f3a16539f9c3a25db1ac4b8f5813.png](https://img-blog.csdnimg.cn/img_convert/33c4f3a16539f9c3a25db1ac4b8f5813.png)
碰巧,算术平均数可以让误差最小!
接下来,对最小二乘进行扩展:
![0027ad7f878aba5da4ed34e379ee6dd1.png](https://img-blog.csdnimg.cn/img_convert/0027ad7f878aba5da4ed34e379ee6dd1.png)
![c02e3726db3d41893a98791f516cd1c5.png](https://img-blog.csdnimg.cn/img_convert/c02e3726db3d41893a98791f516cd1c5.png)
可以假设这条直线的方程是:
![984e8b69864acffcf0f12137be765ff7.png](https://img-blog.csdnimg.cn/img_convert/984e8b69864acffcf0f12137be765ff7.png)
然后用最小二乘回归的思路:
![c2352bc13557c1004752fcaec200560c.png](https://img-blog.csdnimg.cn/img_convert/c2352bc13557c1004752fcaec200560c.png)
然后对a,b求偏导数求误差平方和的最小值:
![e157460d2d53b18294e20c22cd522f5f.png](https://img-blog.csdnimg.cn/img_convert/e157460d2d53b18294e20c22cd522f5f.png)
![8a8e6c5b79c425af4684a951771ce77d.png](https://img-blog.csdnimg.cn/img_convert/8a8e6c5b79c425af4684a951771ce77d.png)
一次函数,二次函数都是线性函数!都可以通过解线性方程组来求解!
以上这一套操作,都是假设啊,这时候勤学爱问的高斯就站出来了:
他用另一套思路来回答这个问题!
勒让德用误差平方和最小来拟合直线:
![83d4c9927db140d3beb88b3ae7773ca1.png](https://img-blog.csdnimg.cn/img_convert/83d4c9927db140d3beb88b3ae7773ca1.png)
![68cc8b7a067e4b9b3370aa7cc63f6fed.png](https://img-blog.csdnimg.cn/img_convert/68cc8b7a067e4b9b3370aa7cc63f6fed.png)
现在可以来解这个微分方程了。最终得到:
![d1a2eefaea48525642fd8c3ca1837545.png](https://img-blog.csdnimg.cn/img_convert/d1a2eefaea48525642fd8c3ca1837545.png)
这不就是我们的正态分布密度函数吗!
并且这还是一个充要条件:
![441be784df34e337d24d78c18950f306.png](https://img-blog.csdnimg.cn/img_convert/441be784df34e337d24d78c18950f306.png)
也就是说,如果误差项服从正态分布,那么最小二乘估计就是完美的!
那么误差项服从正态分布吗?
如果误差项是随机产生的,那么根据中心极限定律,误差的分布就服从正态分布!
由此,勒让德虽然提出了最小二乘的思路,但真正使它发扬光大的是高斯,高斯的努力,才真正奠定了最小二乘法的重要地位。
学术上使用最小二乘估计一般遵循这样:
求知鸟:关于统计学的思考(2)zhuanlan.zhihu.com![f72b27c162e2229db8c280b710e7ed1d.png](https://img-blog.csdnimg.cn/img_convert/f72b27c162e2229db8c280b710e7ed1d.png)
最小二乘估计的前提:随机误差项满足正态分布!最小二乘估计一般用在线性回归中,用来估