独立和互斥是什么关系?独立和不相关是什么关系?这是概率论中最基本的两个问题,也是很多人最容易弄混的两个问题。甚至有些教材都不能准确地回答这两个问题。
首先来看独立和互斥的关系。要弄清楚关系,首先得弄明白定义。我们以两个事件间的关系为例。
事件
事件
如果事件
证明:若
另一方面,若
“互斥不独立,独立不互斥”是在事件
接下来我要强调一个概念:零概率事件与不可能事件是不同的。不可能事件的定义是:若
类似地,1概率事件与必然事件是不同的。1概率事件是指发生概率为1的事件,但是它比“必然事件”更弱些。仍然举上面的例子:事件{
于是有如下结论:零概率事件与任何事件独立;1概率事件与任何事件独立。我在这里只证明“零概率事件与任何事件独立”:设
我们已经知道,零概率事件与任何事件独立,1概率事件与任何事件独立。那么有没有什么事件与任何事件互斥呢?答案是:不可能事件与任何事件互斥。证明很简单:设
最后来一个终极问题:有没有什么事件与任何事件既独立又互斥呢?答案是:不可能事件与任何事件既独立又互斥!证明很简单:首先,不可能事件与任何事件互斥,这在上一段已经证明;又因为不可能事件一定是零概率事件,而零概率事件与任何事件独立。所以不可能事件与任何事件既独立又互斥。
接着来看独立和不相关的关系。同样地,要弄清楚关系,首先得弄明白定义。
这里是指随机变量之间的独立或者相关关系,而非上文中的事件间的关系。仍然以两个随机变量之间的关系为例。
随机变量
随机变量
有99.99%的学生认为“独立必不相关,不相关未必独立”。甚至有一些粗心的教材也是这样写的。事实上这种说法是不准确的。回到不相关的定义,两个随机变量不相关的前提是:它们的数学期望存在。如果数学期望不存在,那么无相关性可言。比如设
在数学期望存在的情况下,“独立必不相关,不相关未必独立”是对的。独立是比不相关更强的概念。我们再次回到定义:随机变量独立是由分布函数定义的,而不相关只是用一阶矩(即数学期望)定义的。分布函数是比矩更高的概念,分布函数能决定矩,而矩未必能决定分布函数。当然这只是直观的说明。为了论证“在数学期望存在的情况下,独立必不相关,相关未必独立”,需要对“独立必不相关”作出证明,并对“不相关未必独立”举出反例。对“独立必不相关”作出证明已经超出了初等概率论的范畴,我在这里便不再详写。而“相关未必独立”的反例是有很多的。比如
另外,我们所说的“相关”是指“线性相关”。除了线性相关,两个随机变量仍然有其他形式的相关性。如
以上是对概率论中两个易混知识点的解析。希望能对大家有所帮助。