【概率论】4-1:随机变量的期望(The Expectation of a Random Variable Part I)

原文地址1:https://www.face2ai.com/Math-Probability-4-1-The-Expectation-of-a-Random-Variable-P1转载请标明出处

Abstract: 本文主要介绍期望的基础之知识,第一部分介绍连续和离散随机变量的期望。
Keywords: Expectation

随机变量的期望

好像大家比较喜欢关于学习方面的废话,那么以后就不说社会现象了,哈哈哈。
期望是整个这一章的基础,概率论学习例子最重要,前面几节例子都写的不多,所以让大家多看书,博客只能算个总结性的东西,而期望这个概念更是需要用练习去理解,我做数学的目的是为了研究机器学习,不是为了做习题,但是做习题是最快速的学数学的方法。
为了使得基础扎实,所以把本来可以一篇完成的博客拆分成了两篇,第一篇写离散和连续随机变量的期望,下一篇写随机变量函数的期望。

本章引言

一个随机变量的全部信息被保存在他的分布中,当事件到随机变量的确定后,随机变量的分布唯一描述这个随机变量的全部性质。
但是整个分布包含太多信息了,比如一个复杂的分布,参数可能有几百上千个,有些性质就变得不那么明显了。
举个通俗的例子,我们描述一个人的身材(把身材当做随机变量),最完整的方法就像做CT,把整个人的三维模型数据采集出来,这就相当于其分布函数,但是这个数据量也好,耗时也好,都是非常大的,而且有些数据也没啥大作用,我们可能只关心这个人的射高体重,就能大概猜测出来这个人的大概样子,而不关心他的脑袋有多大,眼睛有多大。
这个例子是个很通俗的解释,但是类比的很恰当(为自己鼓掌)。
我们的目的就像找到身材中的身高和体重一样,找到分布中的某几个关键数值,这些数值可以反映出分布的某些重要性质——期望!

离散分布的期望 Expectation for a Discrete Distribution

先举个不切实际的例子,买股票,通过某种计算,我们知道了某只股票的赚钱的分布,只有两种请款个,一种是赚10块钱,概率是90%,一种是赔100块钱,概率是10%。那么我们要不要买这只股票。
分析,首先事件是两个,一个是赚10元,一个是赔100,那么我们把这两个事件映射成随机变量 10,-100,那么离散分布: P r ( 10 ) = 0.9 , P r ( − 100 ) = 0.1 Pr(10)=0.9,Pr(-100)=0.1 Pr(10)=0.9,Pr(100)=0.1 我们可能赚多少钱,相当于随机变量的加权平均,也就是 E = 10 × 0.9 + ( − 100 ) × 0.1 = − 1 E=10\times 0.9+(-100)\times 0.1 =-1 E=10×0.9+(100)×0.1=1 我们买这只股票的赚钱期望值是-1 ,这个-1其实是没有意义的,因为我们从事件到随机变量的映射其实只做了两个事件的一对一映射,我们得到的 -1 这个随机变量根本不知道对应什么事件,但是我们可以把第一步的从事件到随机变量的映射改成一个线性的函数,也就是收益 a a a (可正可负)对应是随机变量是 X = a X=a X=a 那么这样就存在逆映射,随机变量-1对应赔了一块钱。

Definition Mean of Bounded Discrete Random Variable. Let X X X be a bounded discrete random variable whose p.f. is f f f .the expectation of X X X denoted by E ( X ) E(X) E(X) ,is a number define as follow:
E ( X ) = ∑ All  x x f ( x ) E(X)=\sum_{\text{All }x}xf(x) E(X)=All xxf(x)
The expectation of X X X is also referred to as the mean of X X X or the expected value of X X X

上面定义了一个有限的离散分布的期望,每个分布对应唯一的期望,有限的离散分布都有期望,但是后面要说的连续的分布可能没有期望。

一个例子,但是很重要,重要到可以当做一个定理:
一个随机变量X有一个参数为p的伯努利分布,那么他的期望是什么?
E ( X ) = p × 1 + ( 1 − p ) × 0 = p E(X)=p\times 1+(1-p)\times 0=p E(X)=p×1+(1p)×0=p
简单的例子,但是是后面很多求解的基础组成,这个值得我们关注一下。

上面我们讲的都是有限个离散分布的情况,当X是无限的时候其实也可以求期望,也就是求所有可能的值的加权平均数

Definition Mean of General Discrete Random Variable. Let X be a discrete random variable whose p.f. is f.Suppose that at least one of the following sums is finite:
∑ Positive  x x f ( x ) , ∑ Negative  x x f ( x ) \sum_{\text{Positive }x}xf(x) , \sum_{\text{Negative }x}xf(x) Positive xxf(x),Negative xxf(x)
Then the mean,expectation,or expected value of X X X is said to exist and is defined to be
E ( x ) = ∑ All  x x f ( x ) E(x)=\sum_{\text{All } x}xf(x) E(x)=All xxf(x)

这个定义跟我在其他书上看到的还是有点区别,首先是分了两类,正的随机变量求了一个加权和,负的随机变量也求了一个加权和,判断了一下这两个和是不是有限的,如果其中至少一个是有限的的,那么就能得出其期望是 E ( x ) = ∑ All  x x f ( x ) E(x)=\sum_{\text{All } x}xf(x) E(x)=All xxf(x) 为啥两个都是无限的不行,因为没办法确定符号,当两个和有一个是无限的,我们可以认定其符号是正还是负,其值肯定是无穷,所以我们能得到一个明确的结论,是正无穷还是负无穷。
如果两个和都是无穷,一个正无穷,一个负无穷,那么他们的和将会没有意义,所以,我们的期望定义就变成了上面这个样子。

那我们就来举一个例子,无边界离散随机变量期望不存在的例子:离散随机变量X有分布如下
f ( x ) = { 1 2 ∣ x ∣ ( ∣ x ∣ + 1 )  if  x = ± 1 , ± 2 , ± 3 , … 0  otherwise  f(x)= \begin{cases} \frac{1}{2|x|(|x|+1)}&\text{ if }x=\pm 1,\pm 2,\pm 3,\dots\\ 0& \text{ otherwise } \end{cases} f(x)={2x(x+1)10 if x=±1,±2,±3, otherwise 
那么他的期望是:

∑ x = − 1 − ∞ x 1 2 ∣ x ∣ ( ∣ x ∣ + 1 ) = − ∞ ∑ x = 1 ∞ x 1 2 ∣ x ∣ ( ∣ x ∣ + 1 ) = ∞ \sum^{-\infty}_{x=-1} x\frac{1}{2|x|(|x|+1)}=-\infty \\ \sum^{\infty}_{x=1} x\frac{1}{2|x|(|x|+1)}=\infty x=1x2x(x+1)1=x=1x2x(x+1)1=

所以期望不存在。
期望可以是任意一个实数,当然也包括 ± ∞ \pm \infty ± 前提是必须明确知道这个实数是什么。

注意:期望之和分布唯一相关,和其他任何东西都无关,如果两个随机变量有同样的分布,那么他俩就有一样的期望,即使他俩是风马牛不相及的事物。
所以我们常说一个分布的期望是多少,甚至不知道这个分布的随机变量是啥都无所谓。
期望只和分布有关系!

连续分布的期望 Expectation for a Continuous Distribution

到了连续情况下,我们就要用积分取代上面的所有求和,还有一个问题就是 p.f. 过度到p.d.f 的过程,p.f. 每个点对应的值就是其概率,但是p.d.f.对应的点并不是概率,那么这个区别我们要怎么处理呢?
首先我们应该不考虑p.f.对应的值是概率这个想法,而是把它仅仅当做一个权值,每个随机变量对应不同的权值,这些权值的特点是相加的和是1,同样,对于连续随机变量,有无数个随机变量,也有无数个权值,虽然这些权值不是其对应的概率,但是这些权值的和也就是积分结果也是1,满足加权平均的要求,期望的公式中, f ( x ) f(x) f(x) 只是一个权重,虽然他有时可以是随机变量对应的概率,有时也可以不是。

Definition Mean of Bounded Continuous Random Variable. Let X be a bounded continuous random variable whose p.d.f. is f.The expectation of X ,denote E(X),is defined as follows:
E ( X ) = ∫ − ∞ ∞ x f ( x ) d x E(X)=\int^{\infty}_{-\infty}xf(x)dx E(X)=xf(x)dx

从求和变成了积分,求得的结果也叫做均值或者期望值。
这是有限情况下的结果,有限的随机变量必然有期望。而一般情况下的定义如下:

Definition Mean of General Continuous Random Variable.Let X be a continuous random variable whose p.d.f. is f.Suppose that at least one of the following integrals is finite:
∫ 0 ∞ x f ( x ) d x , ∫ − ∞ 0 x f ( x ) d x \int^{\infty}_{0}xf(x)dx,\int^{0}_{-\infty}xf(x)dx 0xf(x)dx,0xf(x)dx
Then the mean,expectation,or expected value of X is said to exist and is defined to be
E ( X ) = ∫ − ∞ ∞ x f ( x ) d x E(X)=\int^{\infty}_{-\infty}xf(x)dx E(X)=xf(x)dx

和离散情况套路一致,如果两个积分结果都是无限的,那么这个分布期望不存在,如果其中一个有限,那么期望结果就是确定的,原因也一致。

下面这个例子必须给出,一个伟大的人给出的特例,柯西分布:
计算以下分布函数的期望:
f ( x ) = 1 π ( 1 + x 2 )  for  − ∞ < x < ∞ f(x)=\frac{1}{\pi(1+x^2)} \text{ for } -\infty < x < \infty f(x)=π(1+x2)1 for <x<
求积分可以知道其结果是1,因为
d d x t a n − 1 ( x ) = 1 1 + x 2 \frac{d}{dx}tan^{-1}(x)=\frac{1}{1+x^2} dxdtan1(x)=1+x21
具体求积分这段就不写了,容易证明,柯西分布是一个合法的分布,但是其期望:
∫ 0 ∞ x π ( 1 + x 2 ) d x = ∞ \int^{\infty}_{0}\frac{x}{\pi(1+x^2)}dx=\infty 0π(1+x2)xdx=
同理
∫ − ∞ 0 x π ( 1 + x 2 ) d x = − ∞ \int^{0}_{-\infty}\frac{x}{\pi(1+x^2)}dx=-\infty 0π(1+x2)xdx=

所以其期望不存在,那么是什么原因导致本来收敛的积分变得不确定了呢?原因是乘以了x,使得p.d.f. 的收敛性发生了极大的变化。

期望的表达 Interpretation of the Expectation

其中有些关于期望的性质要说一下:
均值和重心的关系,一个分布的均值一般来说是在整个分布的重心。
对称分布的期望一般在对称轴所在的随机变量处。
当我们计算一个分布的期望之前要确定期望是否存在。
分布的变化对期望影响很大,期望小小的变化都会引起期望的剧烈变化。所以期望可以作为分布的一个重要特征。

总结

本文介绍了期望的定义和确定期望的方法,包含有限离散,有界连续,无限无界离散连续分布的期望求法,下文我们将介绍期望的性质。

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
概率论中的二维随机变量是指由两个随机变量组成的一种数学模。它可以用来描述两个不同事件之间的关系和相互影响。 以下是一些与二维随机变量相关的重要知识点: 1. 概率密度函数(PDF):对于连续二维随机变量,概率密度函数描述了其取值的概率分布情况。它可以通过对二维随机变量进行积分来计算概率。 2. 边缘分布:边缘分布指的是二维随机变量中每个单独变量的概率分布。通过边缘分布,可以计算某一个变量的概率,而忽略其他变量的取值情况。 3. 条件分布:条件分布指的是在给定另一个变量取值的条件下,某一个变量的概率分布。条件分布可以用来描述两个变量之间的依赖关系和相互影响。 4. 相关性和独立性:二维随机变量的相关性描述了两个变量之间的线性关系程度,可以通过协方差或相关系数来衡量。如果两个变量相互独立,则它们之间没有任何线性关系。 5. 边缘期望和协方差:边缘期望是指每个变量的期望值,可以用来描述随机变量的平均取值情况。协方差衡量了两个变量之间的总体线性关系,可以通过协方差矩阵来表示。 6. 线性变换和线性组合:对二维随机变量进行线性变换或线性组合可以得到新的随机变量。这些新的变量可能具有特定的概率分布和相关性。 这些是概率论中关于二维随机变量的一些重要知识点,希望能对你有所帮助。如果你还有其他问题,请继续提问。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值