概率论学习笔记全网最全!!!!

概率论

第01回:一些基本概念

1. 随机试验

满足下列条件的试验称为随机试验.

  • 可以在相同的条件下重复地进行;
  • 每次试验的可能结果不止一个,并且能事先明确试验的所有可能结果;
  • 进行一次试验之前不能确定哪一个结果会出现.
2. 样本空间

​ 我们研究随机现象的方法其实就是利用已知找到规律来分析未知,既然随机试验的所有可能结果我们都能事先知道,那我们先把这些结果列出来。

  • 样本点:随机试验的每一个可能结果称为一个样本
  • 样本空间S:所有样本点全体组成的集合称为样本空间
3. 随机事件

随机现象往往是通过一个具体情况或具体事件出现的,比如“扔色子扔出的点数是偶数”这个事件,相当于给扔出的点数有附加了一个条件,它的所有可能结果写欣集合内{2,4,6},我们会发现这个集合是样本空间的一个子集。

  • 随机事件:样本空间S的子集称为随机事件,通常用大写字母A,B,C等表示.
  • 基本事件:由单个样本点组成的单点集.
  • 事件发生:在每次试验中,当且仅当事件的结果集合中一个样本点出现时,称这一事件发生.
  • 必然事件:在每次试验中总是发生的,称为必然事件,记为S。必然事件包含样本空间S所有样本点,它是样本空间S自身的子集.
  • 不可能事件:在任何一次试验中都不发生的事件称为不可能事件,记为∅。不可能事件∅不包含任何样本点,它也是样本空间的子集.

第02回: 事件关系集运算

1.事件间的关系
名称符号从事件发生角度理解集合定义图示
A包含BB⊂A事件B发生必有事件A发生B是A的子集image-20230527220257088
A与B相等A=B事件A发生必有事件B方法,且事件B发生必有事件A发生A与B所包含样本点相同image-20230527220615297
A与B的和A∪B事件A∪B发生<=>事件A发生或事件B发生A与B的并集image-20230527220648759
A与B的积A∩B或AB事件A∩B发生<=>事件A发生且事件B发生A与B的交集image-20230527221003956
A与B的差A-B或A-AB或A非B事件A-B发生<=>事件A发生且事件B不发生属于A而不属于B的样本点组成的集合image-20230527221210830
A与B互斥AB=∅事件A与事件B不会同时发生A与B没有共同的样本点image-20230527221439833
A的对立事件非A每次试验事件A与事件feiA有一个发生且仅有一个发生A∪ A ‾ \overline{A} A=S,A A ‾ \overline{A} A=∅image-20230527221454351
2.事件运算的性质
  • 交换律:

    A∪B=B∪A; A∩B=B∩A.

  • 结合律:

    A∪(B∪C)=(A∪B)∪C;

    A∩(B∩C)=(A∩B)∩C.

  • 分配律:

    A∪(B∩C)=(A∪B)∩(A∪C);

    A∩(B∪C)=(A∩B)∪(A∩C).

  • 德摩根律:

    A U B ‾ \overline{AUB} AUB= A ‾ \overline{A} A B ‾ \overline{B} B A ∩ B ‾ \overline{A∩B} AB= A ‾ \overline{A} A B ‾ \overline{B} B;

    A ∪ B ∪ C ‾ \overline{A∪B∪C} ABC= A ‾ \overline{A} A B ‾ \overline{B} B C ‾ \overline{C} C A ∩ B ∩ C ‾ \overline{A∩B∩C} ABC= A ‾ \overline{A} A B ‾ \overline{B} B C ‾ \overline{C} C

注:德摩根率:长杠变短杠,开口换方向。

第03回:什么是概率

概率是衡量一件事发生的可能性大小的数值!

1.概率的频率定义

在大量重复试验下,随着试验次数的增加,一个事件A出现的频率总在一个固定的数值附近摆动,我们把这个“固定的数”称为事件A的概率。

2.概率的公理化定义

​ 设E是随机试验,S是它的样本空间,对于E的每一个事件A赋予一个实数,记为P(A),称为事件A的概率,如果集合函数P()满足下列条件:

  • 非负性:对于每一个事件A,有P(A)≥0;

  • 规范性:对于必然事件S,有P(S)=1;

  • 可列可加性:设A1,A2…是两两互不相容的事件,即对于
    i ≠ j , A i A j = Φ , i , j = 1 , 2 , . . . 则有 i≠j,A_iA_j=Φ,i,j=1,2,... 则有 i=j,AiAj=Φ,i,j=1,2,...则有

image-20230527224912460
3.概率的性质
  • P(∅)=0,P(S)=1;
  • 有限可加性:设A1,A2…An是两两互不相容的事件,则有image-20230527225208330
  • 逆事件的概率:对于任意事件A,有P(A)=1-P(A);
  • 减法公式:设A,B是两个事件,P(A-B)=P(A B ‾ \overline{B} B)=P(A)-P(AB)。特别地,若A⊂B,有P(A)<= P(B),且P(B-A)=P(B)-P(A)
  • 加法公式:对于任意两随机事件A,B有: P(AUB)=P(A)+P(B)-P(AB)

注:3个事件的概率加法公式:

​ P(AUBUC)=P(A)+P(B)+ P©-P(AB)-P(BC)-P(AC)+P(ABC).

第04回:古典概型

1.古典概型(等可能概型)

定义:一个试验的样本点有限,并且每个样本点出现的可能性都相等,那这个试验就是古典概型(等可能概型),比如扔骰子,每个点数出现的可能性都是1/6。

计算方法image-20230528125354766

比如A=扔骰子扔出奇数,P(A)=3/6=1/2

2.几何概型

如果试验E是从某一线段(或平面、空间中有界区域)Ω上取一点,并且所取的点位于Ω中任意两个长度(或平面、体积)相等的子区间(或子区域)内的可能性相同,则所取得点位于Ω中的任意子区间(或子区域)A内这一事件(仍记作A)的概率为:

image-20230528130627299

例1:甲乙两人约好上午8点到12点见面,谁先到等对方一小时离去,求甲乙两人能见面的概率。

解:设A={两人能见面} P(A)

​ 甲到的时间为x,乙到的时间为y

​ A={(x,y)|y-x<=1 或 x-y<=1}

image-20230528132347961

P(A) = (16-9)/(4*4) = 7/16

第05回: 条件概率与乘法法则

1.条件概率的概念

条件概率P(B|A)表示已知事件A发生的情况下事件B发生的概率:

image-20230528163051047
2.条件概率的性质
  • 0 <= P(B|A)<=1
  • P(S|A)=1
  • P( A ‾ \overline{A} A|B)=1-P(A|B)
  • P(A+B|C) = P(A|C)+P(B|C)-P(AB|C)
3.乘法法则
image-20230528164904432

第06回:全概率公式与贝叶斯公式

image-20230528171000476

P(A)=P(AB1)+P(AB2)+P(AB3)

注:B1,B2,B3将样本空间占完,即叫做完备事件组。

1.全概率公式
image-20230528170631758
2.贝叶斯公式
image-20230528171709855

注:贝叶斯公式实质就是条件概率公式。

第07回:事件的独立性

1.事件的独立性

设A和B是两件事,若满足P(AB)=P(A)P(B),则称事件A和B相互独立。

2.事件独立性的相关结论
  • A和B相互独立<=>P(AB)=P(A)P(B)

​ <=>P(B)=P(B|A) (P(A)>0)

​ <=>P(B|A)=P(B| A ‾ \overline{A} A) (0<P(A)<1)

​ <=>P(A|B)=P(A| B ‾ \overline{B} B) (0<P(B)<1)

​ 注:A发不发生不影响B的结果。

  • A和B相互独立,这A和 B ‾ \overline{B} B A ‾ \overline{A} A和B, A ‾ \overline{A} A B ‾ \overline{B} B也相互独立;

  • 当0<P(A)<1,0<P(B)<1时,A和B相互独立与A和B互不相容不能同时成立,也就是独立则不互斥,互斥则不独立,因为A和B互不相容 <=> AB=∅ <=> P(AB)=0
    如果A事件是扔骰子扔出奇数,A={1,3,5},B是扔出点数大于4,B={5,6},两者的交集为5并不互斥,但“扔出奇数”事件和“扔出大于4的点数”事件之间是独立的

    这与P(AB)=P(A)P(B)>0是矛盾的。

  • 三个时间A,B,C相互独立,则满足

    • P(AB)=P(A)P(B)
    • P(BC)=P(B)P©
    • P(AC)=P(A)P©
    • P(ABC)=P(A)P(B)P©

    若只满足前三个式子,则叫做两两相互独立。

互不相容、对立、独立对比:

  • 互不相容:AB=∅
  • 对立:AB=∅ A∪B=S
  • 独立:P(AB)=P(A)P(B)

第08回:离散型随机变量

1. 随机变量

定义:随机变量X是定义在随机试验样本空间S={e}上的单实值函数,记为X=X(e)。

注:

  • 随机变量X=X(e)是一个单实值函数,也就是随机试验的每个结果在实数轴上只有一个值与之对应,当然,不同元素对应的实数值可能是一样的,比如年龄问题,很多人都对应 60这个年龄数值;
  • X(e)体现的是对随机事件的描述;
  • X(e)的各个取值都有一定的概率;
  • 试验之前可知X(e)的取值范围,但无法预知取到何值。
2.离散型随机变量

离散型随机变量是指随机变量的全部可能取值是有限个或可列无限个。可列无限个事指能与自然数一一对应上。

离散型随机变量的分布率:

​ 设离散型随机变量X的所有可能取值为xk(k=1,2,…),x取到各个可能值的概率P(X=xk)=pk,(k=1,2,3,…),称为随机变量X的概率分布,也叫分布律。

Xx1x2x3xn
Pkp1p2p3pn

注:

  • pk>=0,(k=1,2,…)
  • image-20230528185459906
3.常见的离散型随机变量
0-1分布

​ 随机试验的结果只有两个,随机变量X只有两个可能取值0和1,其分布规律可以写成:

X01
Pk1-pp

​ 比如抛硬币,产品是否合格,一个事件是否发生。

二项分布

​ 只有两个结果的随机试验称为伯努利试验,观察A发生或A不发生,将这种试验独立重复进行n次,称为n重伯努利试验。n重伯努利试验中A发生的次数也是一个随机变量:
​ 假设单独一次试验A发生的概率为p(0<p<1),而A不发生的概率为q(q=1-p),则n次试验中A发生k次的概率为:

image-20230528191033365

​ 我们把这个n重伯努利试验中A发生的次数这个随机变量X服从的分布称为二项分布记为B(n,p).

泊松分布

​ 泊松分布适合于描述单位时间(空间)内随机事件发生的次数。如加油站一小时内到达的车辆数,一个医院一天内出生的新生儿数量,手上单位面积内细菌分布的数量等等。
​ 泊松分布用P(λ),π(λ)表示,其分布律:

image-20230528191819279 这里1>

​ 这里λ>0是一个常数,表示单位时间(空间)内随机事件发生的平均次数。X~P(λ)表示随机变量X服从参数为λ的泊松分布。

​ 顺口溜:拉ke负拉比上负阶乘

​ 例题:一部热线电话每分钟接到电话的次数服从参数为4的泊松分布,求某一分钟内恰好接到8个电话的概率。

image-20230528192908046
泊松定理
image-20230528193003870

注:泊松定理就是告诉我们,当n特别大的时候,二项分布就可以近似的看成泊松分布了。

例:设某工厂生成零件的次品率是0.1%,且各个零件是否是次品是相互独立的,求1000个零件中至少有2个是次品的概率。

image-20230528193924877
4.随机变量的分布函数

定义:设x是随机变量,x是任意实数,则函数F(x)=P(X<=x),-∞<x<+∞称为X的分布函数。

分布函数表示将随机变量X取值中小于等于x的所有取值对应的概率相加!

注:

  • F(x)是一个不减函数
  • P(a<x<=b)=F(b)-F(a);
  • 0<=F(x)<=1,F(-∞)=0,F(+∞)=1;
  • F(x)右连续

第09回:一维连续型随机变量

1.连续型随机变量及其概率密度

定义:如果对于随机变量X的分布函数F(x),存在非负可积函数f(x),使对任意实数x有

image-20230528202849694

则称X为连续型随机变量,f(x)称为X的概率密度函数,简称概率密度。

注:

  • f(x)>=0

  • image-20230528203214101
  • P(x1<X<=x2)=F(x2)-F(x1)=image-20230528203256610

    P(x1<X<=x2)=P(x1<=X<=x2)=P(x1<=X<x2)=P(x1<X<x2);

  • 若f(x)在点x处连续,则有F`(x)=f(x)

2.常见的连续型随机变量
均匀分布

若连续型随机变量X具有概率密度

f ( x ) = { 1 b − a , a < x < b 0 , 其他 f(x)=\begin{cases} 1 \over b-a, & a<x<b \\ 0, & 其他 \end{cases} f(x)={ba,10,a<x<b其他

则称X在区间(a,b)上服从均匀分布,记为X~U(a,b)

image-20230528204842573

X的分布函数为:

F ( x ) = { 0 , x < a x − a b − a a < = x < b 1 x > = b F(x)=\begin{cases} 0, & x<a \\ x-a \over b-a & a<=x<b \\ 1 & x>=b \end{cases} F(x)= 0,baxa1x<aa<=x<bx>=b

指数分布

若连续型随机变量X具有概率密度

f ( x ) = { λ e − λ x , x > 0 0 , 其他 f(x)=\begin{cases} λe^{-λx}, & x>0 \\ 0, & 其他 \end{cases} f(x)={λeλx,0,x>0其他

其中λ>0为常数,则称X服从参数为λ的指数分布,记为X~E(λ)

X的分布函数为:

f ( x ) = { 1 − e − λ x , x > 0 0 , 其他 f(x)=\begin{cases} 1-e^{-λx}, & x>0 \\ 0, & 其他 \end{cases} f(x)={1eλx,0,x>0其他

指数分布的无记忆性

对于任意的s,t>0,有P(X>s+t | X>s)=P(X>t)

一个元件的寿命服从指数分布,那么它已经工作了s小时,还能继续工作t小时的概率就等于从最开始这个元件能工作t小时的概率。只看时间间隔,不看起始时间。

正态分布

正态分布(Normal distribution),也叫常态分布,高斯分布。

正态分布怎么来的?

image-20230529172412986image-20230529172327858

注:

  • 这个函数的解析式是:[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-vp94pt5l-1686022186342)(C:\Users\renanquan\AppData\Roaming\Typora\typora-user-images\image-20230530094327077.png)]

  • 服从正态分布记作X~N(μ,σ2),读作“X服从正态分布”

  • 这里的μ指的就是期望,也就是这组数据的平均数;

    这里的σ指的就是标准差,标准差就是方程开根号,

    那么σ2就是方差咯,所以它描述的是这组数据的分散程度。

正态分布的性质:

  • 曲线在x轴上方,与x轴不相交;

  • 曲线是单峰的,它关于直线x =u对称;

  • 曲线在x=μ处达到峰值image-20230529173123802;

  • 曲线与x围成的面积是1;(记住就好了)

    image-20230529173455801image-20230529173526675

  • 当σ一定时,曲线的位置由μ确定,随着μ的变化沿着x轴平移;

  • 由于曲线与x轴围城的面积是固定的,那么当μ一定时,曲线的形状由σ确定,σ越小(越集中)曲线就高瘦,σ越大(越分散)曲线越矮胖.

3σ原则是什么鬼?

image-20230529175602235image-20230529175623133image-20230529175655471

标准正态分布

若X~N(0,1),则称X服从标准正态分布,有概率密度:[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Dejl4RDX-1686022186344)(C:\Users\renanquan\AppData\Roaming\Typora\typora-user-images\image-20230530094123215.png)]

image-20230530095458588

注:

  • 关于x=0对称,f(-x)=f(x)

  • 分布函数Φ(-x)=1-Φ(x);

  • 若X~N(μ,σ2),则image-20230530094855673

    此时image-20230530094926870

  • image-20230530094941695
  • image-20230530094957206
image-20230528215845753 image-20230530100149868

第10回:随机变量函数的分布

1.离散型随机变量函数的分布

例1.已知随机变量X的分布率如下表所示

X012345
P 1 12 {1 \over 12} 121 1 6 {1 \over 6} 61 1 3 {1 \over 3} 31 1 12 {1 \over 12} 121 2 9 {2 \over 9} 92 1 9 {1 \over 9} 91

问:求Y=(X-2)2的分布率?

解:

Y=(X-2)2410149
X012345
P 1 12 {1 \over 12} 121 1 6 {1 \over 6} 61 1 3 {1 \over 3} 31 1 12 {1 \over 12} 121 2 9 {2 \over 9} 92 1 9 {1 \over 9} 91

合并后得

Y0149
P 1 3 {1 \over 3} 31 1 4 {1 \over 4} 41 11 36 {11 \over 36} 3611 1 9 {1 \over 9} 91

例2.已知随机变量X的分布函数为

F ( x ) = { 0 x < − 1 1 3 − 1 < = x < 0 1 2 0 < = x < 1 2 3 1 < = x < 2 1 x > = 2 F(x)=\begin{cases} 0 & x<-1 \\1\over3 & -1<=x<0\\1\over2 & 0<=x<1\\2\over3 & 1<=x<2\\1 & x>=2\\ \end{cases} F(x)= 03121321x<11<=x<00<=x<11<=x<2x>=2

求Y=(sin π 6 {π \over6 } 6πX)2的分布函数。

解:

  1. X的分布率

    X-1012
    P 1 3 {1 \over 3} 31 1 6 {1 \over 6} 61 1 6 {1 \over 6} 61 1 3 {1 \over 3} 31
  2. Y的分布率

    Y 1 4 {1 \over 4} 410 1 4 {1 \over 4} 41 1 4 {1 \over 4} 41
    X-1012
    P 1 3 {1 \over 3} 31 1 6 {1 \over 6} 61 1 6 {1 \over 6} 61 1 3 {1 \over 3} 31

    将其合并即可。

2.连续型随机变量函数的分布

分布函数法:设随机变量X的概率密度函数为[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-nrKRjQHD-1686022186345)(C:\Users\renanquan\AppData\Roaming\Typora\typora-user-images\image-20230530102956077.png)]那么Y=g(X)的分布函数为image-20230530103058616其概率密度函数为[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-LnpQOIhc-1686022186345)(C:\Users\renanquan\AppData\Roaming\Typora\typora-user-images\image-20230530103124659.png)]

例1. 设随机变量X的分布函数为F(x),则随机变量Y=2X+1的分布函数G(y)=(F( 1 2 {1 \over 2} 21y- 1 2 {1 \over 2} 21))

解:G(y)=P(Y<=y)=P(2X+1<=y)=P(X<= $ y-1 \over 2$)

​ 由F(x)=P(X<=x)知:

​ =F( y − 1 2 y-1\over2 2y1)

​ =F( y 2 y\over2 2y- 1 2 1\over2 21)

第11回:二维离散型随机变量

1.二维随机变量

定义︰设E是一个随机试验,其样本空间为S={e},设X=X(e),Y=Y(e)是定义在样本空间S={e}上的随机变量,则由它们构成的一个向量(X,Y),叫做二维随机向量,或二维随机变量.

2.二维离散型随机变量

引例:小明同学网购数据

X\Y567P(X=xi)
100.050.150.200.4
120.070.110.220.4
150.040.070.090.2
p(Y=yi)0.160.330.511
2.1 联合分布率

P{X=xi,Y=yi}=Pij,(i,j=1,2,…)

image-20230530165124876
2.2 联合分布函数
image-20230530165504751
2.3 边缘分布

单独考虑随机变量X或随机变量Y的分布情况:

随机变量X的边缘分布率:image-20230531111018714

​ 分布函数: image-20230531110822425

随机变量Y的边缘分布率:image-20230531111039664

​ 分布函数:image-20230531110839496

2.4条件分布

例:image-20230531110556626

2.5独立性

​ 在实际应用中,我们会关心两个随机变量之间是否存在某些依赖关系,还是相互独立的。比如身高和体重,身高高的通常体重也会重,因此身高和体重之间存在一定的线性关系,不是独立的。

​ 对于二维随机离散型随机变量:

​ 随机变量X,Y相互独立<=>Pij=PxP·j,(i,j=1,2,…)

​ <=>F(x,y)=FX(x)·FY(y)

第12回:二维连续型随机变量

1.联合分布函数
image-20230531164809068

注:

  • image-20230531165058872
  • image-20230531165021816
  • 设G是xOy平面上的区域,则点(X,Y)落在G内的概率为

    image-20230531165213152

​ 例:image-20230531165900158

  • 若f(x,y)在店(x,y)处连续,则有image-20230531170102723
2.边缘分布
image-20230531171152396
3.条件分布
image-20230531205251604
4.独立性

对于二维连续随机变量:

随机变量X,Y相互独立<=>f(x,y)=fX(x)·fY(y)

5.常用的二维分布
  • 二维均匀分

    如果二维随机变量(X,Y)有概率密度 f ( x , y ) = { 1 A ( x , y ) ∈ G , 0 其他 f(x,y)=\begin{cases} 1 \over A & (x,y)∈G,\\ 0 & 其他 \end{cases} f(x,y)={A10(x,y)G,其他,其中G为平面有界区域,其面积为A,则称(X,Y)在G上服从二维均匀分布

  • 二维正态分布

    image-20230531212213622

第13回:二维随机变量函数的分布

1.二维离散型随机变量函数的分布

例1. 设随机变量X,Y的联合分布律为:

x\Y123
11/501/5
21/51/51/5

求: Z1=X+Y ,Z2=max(X,Y)的分布律.

解:

Z12345
P1/51/52/51/5
Z2123
P1/52/52/5
2.二维连续型随机变量函数的分布
image-20230531214445172

特殊类型:

  • Z=X+Y

    image-20230531214950705
  • Z= Y X Y \over X XY,Z= Y X Y \over X XY

    image-20230531220425428
  • Z=XY

    image-20230531221146567
  • 最大值,最小值函数

    Z=max(X,Y) 或 Z=min(X,Y)

第14回:期望与方差

1.随机变量的数学期望

在概率论和统计学中,数学期望(mathematic expectation [4] )(或均值,亦简称期望)是试验中每次可能结果的概率乘以其结果的总和,是最基本的数学特征之一。它反映随机变量平均取值的大小

数学期望:随机变量由概率加权的平均值。

加权平均值:期末成绩=平时成绩*30%+期末卷分数*70%

1.1离散型随机变量的数学期望
image-20230601083558280
1.2连续型随机变量的数学期望
image-20230601084505317
1.3随机变量数学期望的性质
  • 设C为常数,则有E©=C;
  • 设X为一随机变量,且E(X)存在,C为常数,则有E(CX)=CE(X);
  • 设X与Y是两个随机变量,则有E(X±Y)=E(X)±E(Y);
  • 设X与Y是两个随机变量,则有E(aX±bY)=aE(X)±bE(Y);
  • 设X与Y相互独立,则有E(XY)=E(X)E(Y),(反之不成立)
1.4随机变量函数的数学期望
  • 一维随机变量函数的数学期望

    image-20230601090930827 image-20230601091231469
  • 两个随机变量函数的数学期望

    image-20230601092549229
2.随机变量的方差

概率论中方差用来度量随机变量和其数学期望(即均值)之间的偏离程度。统计中的方差(样本方差)是每个样本值与全体样本值的平均数之差的平方值的平均数。

方差是衡量源数据和期望值相差的度量值。

方差:偏差平方的概率加权平均值。它是用来衡量平均偏离程度(稳定性)

2.1 方差定义
image-20230601093925321
2.2方差的计算公式:平方的期望-期望的平方
image-20230601094042899
2.3方差的性质
  • 设C为常数,则D©=0;

  • 如果X为随机变量,C为常数,则D(CX)=C2D(X);

  • 如果X为随机变量,C为常数,则有D(X+C)=D(X);

  • 若X,Y相互独立,则D(X±Y)=D(X)+D(Y)

    更一般地:D(aX+bY)=a2D(X)+b2D(Y)

3.常用随机变量的数学期望和方差
分布参数分布率或概率密度数学期望方差
0-1分布(伯努利)PP{x=k}pk(1-p)1-k (k=0,1)pp(1-p)
二项分布B(n,p)(n重伯努利)n,pP{x=k}=Cnkpk(1-p)s-kp(n-k)p(1-p)
泊松分布P(λ)λimage-20230601095638011λλ
均匀分布U(a,b)a<bimage-20230601112043245image-20230601112314953image-20230601112343259
正态分布N()μ,σimage-20230601112545575μimage-20230601112211945
指数分布e(λ)λ f ( x ) = { λ e − λ x , x < 0 0 , 其他 f(x)=\begin{cases}λe^{-λx}, & x<0 \\0, & 其他\end{cases} f(x)={λeλx,0,x<0其他image-20230601112644018image-20230601112709647

第15回:协方差与相关系数

1.协方差

协方差表示的是两个变量的总体的误差,这与只表示一个变量误差的方差不同。如果两个变量的变化趋势一致,也就是说如果其中一个大于自身的期望值,另外一个也大于自身的期望值,那么两个变量之间的协方差就是正值。如果两个变量的变化趋势相反,即其中一个大于自身的期望值,另外一个却小于自身的期望值,那么两个变量之间的协方差就是负值。

  1. 协方差定义

    设(X,Y)是二维随机变量,且EX和EY都存在,如果E[(X-EX)(Y-EY)]存在,则称为随机变量X与Y的协方差,记作Cov(X,Y),即Cov(X,Y)=E[(X-EX)(Y-EY)]

  2. 协方差的计算公式

    Cov(X,Y)=E(XY)-E(X)E(Y)

  3. 协方差的性质:

    • Cov(X,Y)=Cov(Y,X);

    • Cov(X,Y+Z)=Cov(X,Y)+Cov(X,Z);

    • Cov(aX,bY)=abCov(X,Y),其中a,b为任意常数

    • Cov(C,X)=0,其中C为任意常数

    • Cov(aX1±bX2,Y)=aCov(X1,Y)±bCov(X2,Y);

    • 如果X与Y相互独立,则Cov(X,Y)=0;

    • D(X±Y)=D(X)+D(Y)±2Cov(X,Y)

      D(X±Y)=D(X)+D(Y)(X,Y相互独立)

常常被量纲(单位所影响),而相关系数则消除了量纲的影响。

2.相关系数
  1. 相关系数的定义

    image-20230601141609490
  2. 相关系数的性质

    XY|≤1。当ρXY=0时,称X与Y不相关.

    • -1≤ρXY≤1,|ρXY|越大,相关性越强

    • ρ X Y = { > 0 正相关 ( = 1 完全正相关 ) = 0 不相关 < 0 负相关 ( = − 1 完全负相关 ) ρ_{XY}=\begin{cases} {>}0 & 正相关(=1 完全正相关) \\ =0 & 不相关\\ {<0} & 负相关(=-1 完全负相关) \end{cases} ρXY= >0=0<0正相关(=1完全正相关)不相关负相关(=1完全负相关)

    • 随机变量X与Y不相关的等价说法:当DX≠0,DY≠0时,

      ρXY=0<=>Cov(X,Y)=0

      ​ <=>E(XY)=E(X)E(Y)

      ​ <=>D(X±Y)=DX+DY

    • 若随机变量X,Y相互独立则X与Y不相关,但反之不一定.

3.二维正态分布
image-20230531212213622

注:

  • 二维正态分布的两个边缘分布也是正态分布;

  • E(X)=μ1,D(X)=σ12,E(Y)=μ2,D(Y)=σ22XY=ρ;

  • 当ρ=0时,X,Y相互独立,也不相关。

    补充:两个相互独立的且服从正态分布的随机变量,它们的线性组合还是服从正态分布。

第16回:大数定律与中心极限定理

1.切比雪夫不等式

设随机变量X,其E(X)=μ,D(X)=σ2都存在,则对任意ε>0均有P{|X-E(X)|≥ε}≤ D ( X ) ε 2 D(X) \over ε^2 ε2D(X)或P{|X-E(X)|<ε}≥1- D ( X ) ε 2 D(X) \over ε^2 ε2D(X)

2.大数定律

依概率收敛定义:设X1,X2,…,Xn,…是一个随机变量序列,a是一个常数,如果对于任意给定的正数ε,有image-20230601154038394则称随机变量序列X1,X2,…,Xn,…依概率收敛与a,记为Xn—》a.

名称大数定律注释
切比雪夫大数定律设随机变量序列X1,X2,…两两不相关,且方差均存在,又存在常数C>0,使D(Xi)≤C(i=1,2,…)则对任意ε>0,有image-20230601163844272在定理条件下有image-20230601163927447
辛钦大数定律设随机变量序列X1,X2,…独立同分布,且数学期望存在,即E(Xi)=μ(i=1,2,…),则对任意ε>0,有image-20230601164253058在定理条件下,有[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-WXiXY9N2-1686022186348)(C:\Users\renanquan\AppData\Roaming\Typora\typora-user-images\image-20230601164306213.png)]
伯努利大数定律设μn是n次独立试验中事件A发生的次数,而p是事件A在每次试验中发生的概率,则对任意ε>0,有image-20230601164635196事件A发生的频率依概率收敛于事件A的概率,即image-20230601164652742
3.中心极限定理
1.林德伯格-莱维(独立同分布)中心极限定理

设随机变量X1,X2,…,Xn,…相互独立同分布,且期望和方差均存在,即E(Xk)=μ,D(Xk)=σ2>0,(k=1,2,3,…)则随机变量之和image-20230601165952595的标准化变量

image-20230601170146012

的分布函数Fn(x)对于任意x满足:

image-20230601170440091

告诉我们:image-20230601171440628

2.棣莫弗-拉普拉斯中心极限定理

设随机变量X1,X2…,Xn,…独立同分布,且服从0-1分布,即P(Xk=1)= p,P(Xk =0)=1-p,(0<p<1,k=1,2,3,…),则对于任意x满足:

image-20230601171712109

告诉我们:当n充分大时,image-20230601171951678

也就是说,当n充分大的时候,二项分布的极限分布是正态分布

补充:独立同分布

独立
独立可以理解为"互不影响".
例如,假若随机变量X1和X2是相互独立的,那么就意味着

  • 当X1和X2两个这随机变量的事件相遇时,它们各自的概率没有因此发生变化。
  • X1的取值不影响X2的取值
  • X2的取值不影响X1的取值.
  • P(XY)=P(X)P(Y)
  • E(XY)= E(X)E(Y)
  • D(X+Y)=D(X)+D(Y)

同分布

同分布可以理解为"服从相同的概率分布".

例如,假若随机变量X1和X2是同分布的,那么就意味着

  • X和X,具有相同的分布形状和相同的分布参数
  • 若X1和X2是离散型随机变量,则它们具有相同的分布律
  • 若X1和X2是连续型随机变量,则它们具有相同的概率密度函数
  • X1和X2有着相同的分布函数,相同的期望、方差

独立同分布
指"服从相同的概率分布并且互相独立”(也就是同时满足了上面提到的两个条件)

  • 7
    点赞
  • 52
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
### 回答1: 概率论是一门研究随机现象的数学分支,主要研究随机事件发生的可能性以及其规律和性质。它以数学理论和方法为基础,通过概率模型和统计方法来描述和解决不确定性问题。 在概率论中,我们通过使用概率来量化和描述事件的可能性。概率是一个介于0和1之间的数值,表示事件发生的可能性大小。当概率为0时,表示事件不可能发生;当概率为1时,表示事件肯定会发生。 概率论广泛应用于各个领域,如金融、医学、工程、统计学等。在金融领域,概率论可用于预测股票价格的涨跌、风险评估和投资决策等。在医学研究中,概率论可以用于分析疾病发生的风险和确定治疗效果等。在工程领域,概率论可以用于可靠性评估、故障分析和优化设计等。 苏淳是 CSDN 的一位作者,他在概率论领域有很多的技术文章和分享。他的文章通常涵盖概率模型、随机过程、统计分析等主题,帮助读者理解和应用概率论知识。他的文章内容深入浅出,适合不同层次的读者阅读。 总的来说,概率论是一门重要的数学学科,通过概率模型和统计方法来研究随机现象的规律。苏淳在该领域的技术文章和分享能够帮助读者更好地理解和应用概率论知识。 ### 回答2: 苏淳是一位在CSDN(中国软件开发者社区)活跃的博主,专注于概率论领域的相关文章和讲解。概率论是数学的一个分支,研究的是随机事件的发生概率及其规律。 苏淳在其博客中通过通俗易懂的语言和生动的例子,将复杂的概率理论解释得深入浅出。他从基础概念入手,如试验、事件、样本空间等,逐步引导读者理解概率的概念和计算方法。同时,他还介绍了概率分布和概率密度函数等更加高级的概念,如正态分布、泊松分布等。 在实际应用方面,苏淳着重讨论了概率论在统计学、机器学习和风险分析等领域的应用。他通过真实的案例和数据分析方法,展示了概率论如何在这些领域中辅助分析和决策。这为读者提供了实际问题中如何运用概率论的思维的指导。 除了博客文章,苏淳还定期开设概率论的在线讲座和交流活动。在这些活动中,他分享了更多的概率论知识,并与听众进行互动和讨论。这为学习者提供了与专家交流和提问的机会,加深了对概率论的理解和应用能力。 总而言之,苏淳是一个在CSDN上专注于概率论的博主,他通过生动的例子和通俗易懂的语言向读者介绍了概率论的基本概念和计算方法,并提供了概率论在实际问题中的应用指导。通过他的博客文章和在线讲座,读者能够更好地理解概率论并运用其思维解决实际问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值