来源
https://blog.csdn.net/zengxiantao1994/article/details/77855644
方差
方差(variance):
概率论中方差用来度量随机变量和其数学期望(即均值)之间的偏离程度。
统计中的方差(样本方差)是各个数据分别与其平均数之差的平方的和的平均数。
在许多实际问题中,研究方差即偏离程度有着重要意义。
公式表示:对于一组随机变量或者统计数据,其期望值我们由E(X)
表示,即随机变量或统计数据的均值,然后对各个数据与均值的差的平方求和,最后对它们求期望值,即为方差公式:
D
(
X
)
=
E
{
∑
[
X
−
E
(
X
)
]
2
}
D(X)=E\left\{\sum[X-E(X)]^{2}\right\}
D(X)=E{∑[X−E(X)]2}
该公式描述了随机变量或者统计数据与均值的偏离程度。
方差与标准差
标准差:对方差开方
σ
=
1
N
∑
i
=
1
N
(
x
i
−
μ
)
2
\sigma=\sqrt{\frac{1}{N} \sum_{i=1}^{N}\left(x_{i}-\mu\right)^{2}}
σ=N1∑i=1N(xi−μ)2
那么问题来了,既然有了方差来描述变量与均值的偏离程度,那又搞出来个标准差干什么呢?
原因是:方差与我们要处理的数据的量纲是不一致的,虽然能很好的描述数据与均值的偏离程度,但是处理结果是不符合我们的直观思维的。
举个例子:一个班级里有60个学生,平均成绩是70分,标准差是9,方差是81,成绩服从正态分布,那么我们通过方差不能直观的确定班级学生与均值到底偏离了多少分,通过标准差我们就很直观的得到学生成绩分布在[61,79]范围(
μ
+
−
σ
\mu+-\sigma
μ+−σ)的概率为0.6826,即约等于下图中的34.2%*2
即通过
3
σ
3\sigma
3σ原则来得知随机变量落在某个区间的概率。
均方差、均方误差、均方根误差
- 均方差 = 标准差(Standard Deviation);
- 均方误差:误差平方和的平均数。
M S E = ∑ e i 2 n M S E=\frac{\sum e_{i}^{2}}{n} MSE=n∑ei2 - 均方根误差(meansquared error):误差平方和的平均数开方。
R M S E = 1 N ∑ i = 1 n ( X o b s , i − X m o d e l , i ) 2 R M S E=\sqrt{\frac{1}{N} \sum_{i=1}^{n}\left(X_{o b s, i}-X_{m o d e l, i}\right)^{2}} RMSE=N1∑i=1n(Xobs,i−Xmodel,i)2
举个例子:我们要测量房间里的温度,很遗憾我们的温度计精度不高,所以就需要测量5次,得到一组数据[x1,x2,x3,x4,x5]
,假设温度的真实值是x,数据与真实值的误差e=x-xi
。
那么均方误差和均方根误差就可以求出来。
总的来说,均方差(标准差)是数据序列与均值的关系,而均方根误差是数据序列与真实值之间的关系。
因此,标准差是用来衡量一组数自身的离散程度,而均方根误差是用来衡量观测值同真值之间的偏差,它们的研究对象和研究目的不同,但是计算过程类似。
均方根值
均方根值(RMS)也称作为效值,它的计算方法是先平方、再平均、然后开方,
即是当真值为0时的均方根误差。
X
m
s
=
∑
i
=
1
N
X
i
2
N
=
X
1
2
+
X
2
2
+
⋯
+
X
N
2
N
X_{m s}=\sqrt{\frac{\sum_{i=1}^{N} X_{i}^{2}}{N}}=\sqrt{\frac{X_{1}^{2}+X_{2}^{2}+\cdots+X_{N}^{2}}{N}}
Xms=N∑i=1NXi2=NX12+X22+⋯+XN2