本篇为《深度学习》系列博客的第四篇,该系列博客主要记录深度学习相关知识的学习过程和自己的理解,方便以后查阅。
为什么要写这篇博客呢,因为在看PCA的时候看到了协方差矩阵的东西,就牵连出了这篇博客,我之后的博客将会讨论方差和协方差!!!算是PCA的一个知识铺垫。
均值--统计学概念
均值(平均数 average)
是实验后
根据实际结果统计得到的样本
的平均值。
比如:我们实验结果得出了
x
1
,
x
2
,
x
3
…
.
.
x
n
x_1,x_2,x_3…..x_n
x1,x2,x3…..xn这
n
n
n个值,那么我们的均值计算是:
1
N
∗
(
x
1
+
x
2
+
…
+
x
n
)
(1)
\frac{1}{N} * (x_1+x_2+…+x_n) \tag{1}
N1∗(x1+x2+…+xn)(1)
比如:我们进行掷骰子,掷了六次,点数分别为 2 , 2 , 2 , 4 , 4 , 4 2,2,2,4,4,4 2,2,2,4,4,4,这六次的观察就是我们的样本,于是我们可以说均值为 ( 2 + 2 + 2 + 4 + 4 + 4 ) / 6 = 3 (2+2+2+4+4+4)/6=3 (2+2+2+4+4+4)/6=3。
但是千万不能说期望是 3 3 3,说期望是 3 3 3就明显的弄混了均值和期望的概念,下面解释一下期望的概念。
方差--概率论概念
期望是针对于随机变量
而言的一个量,可以理解是一种站在“上帝视角
”的值。针对于他的样本空间而言的。
期望(expectation)或者期望值(expected value)
是实验前
根据概率分布“预测
”的样本平均值。
之所以说是预测是因为,在实验前能得到的期望与实际实验得到的样本的平均数总会不可避免的存在偏差
,毕竟随机实验的结果永远充满着不确定性。
均值是一个统计量(对观察样本的统计),期望是一种概率论概念,是一个数学特征
。
首先给出定义公式
同时期望具有线性性质:
E
(
a
X
+
b
Y
)
=
A
E
(
X
)
+
b
E
(
Y
)
(2)
E(aX+bY)=AE(X)+bE(Y) \tag{2}
E(aX+bY)=AE(X)+bE(Y)(2)
那么上面那个掷骰子例子对应的期望求法如下:
E
(
X
)
=
1
⋅
1
6
+
2
⋅
1
6
+
3
⋅
1
6
+
4
⋅
1
6
+
5
⋅
1
6
+
6
⋅
1
6
1
+
2
+
3
+
4
+
5
+
6
6
=
3.5
(3)
E(X)=1·\frac{1}{6}+2·\frac{1}{6}+3·\frac{1}{6}+4·\frac{1}{6}+5·\frac{1}{6}+6·\frac{1}{6} \\\frac{1+2+3+4+5+6}{6}=3.5 \tag{3}
E(X)=1⋅61+2⋅61+3⋅61+4⋅61+5⋅61+6⋅6161+2+3+4+5+6=3.5(3)
可以看出期望
是与概率
值联系在一起的
如果说概率是频率随样本趋于无穷的极限 ,期望就是平均数随样本趋于无穷的极限
可以看出均值和期望的联系也是大数定理联系起来的。
期望就是平均数随样本趋于无穷的极限
上面说到期望就是平均数随样本趋于无穷的极限,那么这句话是什么意思呢?
我们还是以上面的掷骰子为例子:
如果我们掷了无数次的骰子,然后将其中的点数进行相加,然后除以他们掷骰子的次数得到均值,这个有无数次样本得出的均值就趋向于期望。类似于下面这样:
( 6 ( 点数 ) + 2 + 3 + 3 + 4 + … + 6 ) 无数次 =均值 ≈ 期望 (4) \frac{(6(点数)+2+3+3+4+…+6)}{无数次} =均值≈期望 \tag{4} 无数次(6(点数)+2+3+3+4+…+6)=均值≈期望(4)
总结
-
概率是频率随样本趋于无穷的极限
-
期望是平均数随样本趋于无穷的极限