Python小白进阶篇之概率论

        今天我们的学习笔记到了概率论这一篇,相信各位对于概率都不会太陌生,在高中作为选择题和大题,大家与之接触的不算少,那么走近属于大学的概率,战友们也一举拿下!!!

一、事件概率

1.1事件

事件是指在某个试验或观察中可能发生的结果或结果的集合。是样本空间的一个子集,可以包含一个或多个样本点,也可以是整个样本空间。事件用大写字母,如 A,B,C 等表示。

例:

事件A={1,2,3}

1.2基本事件

基本事件是指试验中不可再分的最简单的事件。每个基本事件代表一个单一的可能结果。

例子:

抛一枚硬币:基本事件是“正面"和”反面“。

抛一个六面骰子:基本事件是会出现,1-6的每个数字。

1.3复合事件

复合事件是由多个基本事件组合而成的事件。复合事件代表多个可能结果的集合。

例子:

抛两枚硬币,复合事件中可以出现"至少一个正面“

  • 这个事件包含“正面-正面”、“正面-反面”和“反面-正面”三个基本事件。

  • 掷一个六面骰子:复合事件可以是“点数大于3”,这个事件包含“4点”、“5点”和“6点”三个基本事件。

1.4必然事件

必然事件是指在试验中一定会发生的事件。必然事件发生的概率为1.在样本空间中,必然事件包括了样本空间中的所有样本点。

比如在丢骰子时候,点数一定在1-6之间,这就是一个必然事件,和基本事件比的话一个点就是一个事件,而会发生每一个基本事件就是必然事件这是我的感觉。

1.5不可能事件

不可能事件值在试验中绝对不会发生的事件。

不可能的事件发生的概率为0,通常用∅表示。

投掷一个六面骰子发生大于点数六的情况便是一个不可能事件。

1.6样本空间

样本空间是指试验中所有可能结果的集合。样本空间通常用大写字母 Ω 表示。

例如:

投一枚硬币:硬币的正反面便都是属于样本空间里面。

投一个六面骰子样本空间包括1-6。      

而样本空间中有一个关键的个体:样本点

样本点通常用小写字母ω表示。

二、事件间的关系

本章学习的为事件概率,分别了解事件的概念和概率的概念,才能熟练掌握本章知识。

2.2.1包含关系

包含关系是指一个事件是另一个事件的子集。如果事件A包含在事件B中,那么A发生时,B必然发生,即:A⊆B

2.2.1并集

并事件是指两个或多个事件中至少有一个事件发生的情况。事件A和事件B的并事件记作 A∪B或A+B,表示 A 或 B 发生。

2.2.2交集

交事件是指两个或多个事件同时发生的情况。事件A和事件B的交事件记作A∩B或AB,表示 A 和 B 同时发生。

2.2.3差集

如果事件A发生而事件B不发生,则表示这些事件的差集发生了。即事件A中的A和B的公共部分去掉,事件A和B的差集表示A-B

2.2.4互斥事件

互斥事件是指两个事件不能同时发生。如果事件A和事件B是互斥事件,那么A和B的交集为空集

2.2.5对立事件

对立事件是指两个事件互为对立,即一个事件发生时,另一个事件必然不发生。如果事件 A 和事件 B 是对立事件,那么 A 和 B 的并集是样本空间,且 A 和 B 的交集为空集,即: A+B=Ω且AB=∅ 通常,事件 A 的对立事件记作

例子:

  • 抛一枚硬币:事件“正面”和事件“反面”是对立事件。

 这里提到互斥和对立事件的区别:

1.首先两个事件对立,则一定是互斥事件。

2.互斥事件是用于多个事件,对立只适用于两个事件。

3.互斥事件,A和B不能同时发生,也可以都不发生;对立事件有且只有一个发生。

完备事件组

这里指的是一组事件,满足以下两个条件:

1.互斥性2.完备性(这些事件的并集是整个样本空间,且它们的并集是必然事件)

例子:

假设投掷的是一个公平的六面骰子,样本空间是Ω={1,2,3,4,5,6}。

首先1-6是一个完备事件组。

这些事件两两互斥,并且他们的并集包含了所有可能的结果即整个样本空间。

运算法则

这里除了提到关于基本事件的概念、类型,这里还提到了事件的基本运算法则:

交换律是指事件的并集和交集运算满足交换性,即运算的顺序不影响结果。

  • 并集的交换律

    A∪B=B∪A

  • 交集的交换律

    A∩B=B∩A

例子:

  • 事件 A 和事件 B 的并集:A∪B=B∪A。

  • 事件 A 和事件 B 的交集:A∩B=B∩A。

结合律

结合律是指事件的并集和交集运算满足结合性,即多个事件的运算顺序不影响结果。

交并集前后结合都不影响结果。

分配率

分配律是指事件的并集和交集运算满足分配性,即一个运算对另一个运算的分配关系。

  • 并集对交集的分配律

    A∪(B∩C)=(A∪B)∩(A∪C)

  • 交集对并集的分配律

    A∩(B∪C)=(A∩B)∪(A∩C)

对偶律

对偶律是指事件的补集运算的对偶关系,即并集的补集和交集的补集之间的关系。

二、概率

2.1定义

对于一个事件A,其概率 P(A) 定义为:

以下介绍模型

2.2、古典模型

古典概率模型,也称为古典模型或等可能模型,是一种概率论中用于计算随机事件发生概率的方法。它基于以下假设:

  1. 有限性:样本空间是有限的,即所有可能的结果可以被列举出来。

  2. 等可能性:样本空间中的每个基本事件(样本点)出现的可能性是相等的。

在古典模型中,一个事件的概率可以通过以下公式计算:

而怎么样计算古典模型的步骤:

  1. 确定样本空间:列出随机试验所有可能的结果。

  2. 计数:计算样本空间中基本事件的总数。

  3. 识别事件:确定事件 A 包含的基本事件数。

  4. 计算概率:使用上述公式计算事件 A 的概率。

例子

假设投掷一个六面骰子,想要获得奇数1、3、5

样本空间一共有六个数字,基本事件总数也为6,事件A令获得奇数的1、3、5

因此投掷得奇数概率:

2.3组合

组合的定义给定一个包含 n 个元素的集合,从中选择 r 个不同元素(r≤n)进行组合,意味着这 r 个元素的顺序并不重要。

组合通常的表示:

计算公式:

组合的性质:

  • 对称性:C(n,r)=C(n,n−r)

  • 边界条件:C(n,0)=C(n,n)=1

  • 当 r>n 时,C(n,r)=0

举例:

接下来计算一下几何概型

几何概型是概率论中的一个基本概念,它用于处理那些结果可以被表示为几何区域(如线段、平面区域、立体区域等)的随机试验的概率问题。几何概型的基本思想是将概率问题转化为几何区域上的面积、体积或长度等几何量的比值。

还有些模型和公式伙伴们可以自行查阅,在此我就不一一赘述。

全概率公式

假设事件 A1,A2,...,An 是样本空间 Ω 的一个完备事件组,即这些事件两两互斥,并且它们的并集是整个样本空间。如果我们想计算事件 B 的概率,可以使用全概率公式:

贝叶斯公式

贝叶斯公式描述了在已知其他条件概率的情况下,一个条件概率的计算方法。贝叶斯公式是逆概率理论的核心,它允许我们根据已知的某些概率来更新我们对另一个概率的信念。

其中:

定义

设试验成功的概率为 p(0<p<1),失败的概率为 1−p,如果在n重伯努利实验中,成功k次的概率参数为 p 的伯努利分布。

伯努利分布的概率质量函数(PMF)为:

二、随机变量及其分布

  • P(Bi∣A) 是在事件 A 发生的条件下事件 Bi发生的条件概率(后验概率)。

  • P(A∣Bi)是在事件 Bi发生的条件下事件 A 发生的条件概率(似然度)。

  • P(Bi)是事件 Bi发生的边缘概率(先验概率)。

  • P(A)是事件 A 发生的边缘概率(先验概率),可以通过全概率公式计算得出:

  • 伯努利模型

  • 伯努利模型是一种基础的概率模型,它描述了一个随机试验只有两种可能结果的情况:成功或失败。在伯努利模型中,每次试验只有两个

    可能的结果,通常称为成功和失败。这些结果用事件S和事件F来表示,其中S表示成功,F表示失败。伯努利模型的关键特点是每次试验的

    结果是相互独立的,即前一次试验的结果不会影响后一次试验的结果,每次试验中成功的概率为p,失败的概率为1-p,并且这些概率对于

    每次试验都保持不变。

    伯努利模型在概率论、统计学和随机过程等领域中都有重要的应用。例如,在统计学中,可以使用伯努利模型来建立二元数据的模型,比

    如用户是否购买产品、是否点击广告等。在风险分析中,伯努利模型可以用来描述某种事件的发生与否,比如是否发生事故、是否发生自

    然灾害等。在金融数学中,伯努利模型可以用来模拟股票价格的上涨和下跌情况。

    前置概念

  • 伯努利试验

    • 伯努利试验是一种特殊类型的随机试验,其结果只有两种可能:成功或失败。

    • 伯努利试验的结果是二元的,通常用1表示成功,用0表示失败。

  • n重伯努利试验

    • n重伯努利试验是指伯努利试验重复进行n次,每次试验都是独立的。

    • 在n重伯努利试验中,每次试验的成功概率相同,通常用p表示,失败概率为1-p。

随机变量是一个从样本空间(所有可能结果的集合)到实数集的函数。样本空间中的每个结果都对应于随机变量的一个值。随机变量的值可以是离散的,也可以是连续的。随机变量通常用大写字母表示,如 X、Y 或 Z。

随机变量和事件的联系

定义事件

事件可以定义为随机变量取特定值的集合。一般用{X=?}表示。

例如,如果随机变量 X 表示掷骰子的结果,那么事件 "掷得奇数" 可以表示为 {X=1} 或 {X=3}或 {X=5}。

使用随机变量描述事件

随机变量的值可以定义复杂的事件。

例如,事件 "掷骰子的结果大于4" 可以表示为 {X>4},其中 X 是随机变量。

例如,掷硬币的结果为正面、反面,在数学中不方便描述,可以将正面映射为数字1,反面映射为0,那么事件"掷出正面"可以表示为{X=1},事件"掷出反面"可以表示为{X=0}。

概率分布

随机变量的概率分布描述了它取每个可能值的概率。这个分布可以用来计算事件的概率。在随机变量表示的事件前加上P来表示:P{X=?}或者P(X=?)。

例如,随机变量 X 的概率质量函数(PMF)或概率密度函数(PDF)可以用来计算 P(X=k) 或 P(a<X<b)。

  • 当然这些都只是初步的概念,需要了解事件概率和随机变量分布的一些具体还是需要找更多的例子去检测一下。

Python是数据科学和机器学习领域中非常流行的语言,其中有许多强大的库支持概率论和统计模型的实现。其中两个核心库是NumPy和SciPy,它们提供了大量的数学函数和算法,而更高级的库如Pandas用于数据处理,matplotlib和seaborn则用于数据可视化。 在概率论方面,你可以使用: 1. `numpy.random`模块:提供了各种随机数生成器,如均匀分布、正态分布等。 2. `scipy.stats`模块:包含许多概率分布和统计测试函数,比如计算累积分布函数(CDF)、概率密度函数(PDF)或进行假设检验。 3. `statsmodels`库:提供更高级的统计模型,如线性回归、时间序列分析、以及各种假设检验。 在统计模型方面,有: 1. `sklearn`(scikit-learn):这是机器学习的基础库,包含了诸如线性回归、决策树、聚类算法、分类器等常用统计模型。 2. `pandas`的数据框结构非常适合数据探索和预处理,这对于构建统计模型至关重要。 3. `pyMC3`和`Stan`:用于构建和估计贝叶斯模型的库,支持概率编程。 4. `TensorFlow Probability`或`Edward`:如果你需要在深度学习背景下使用概率模型,这些库提供了概率图模型和自动概率编程功能。 如果你对某个特定的统计模型或概率方法感兴趣,例如贝叶斯网络、马尔可夫链蒙特卡洛(MCMC)或时间序列分析,请告诉我,我可以为你提供更详细的介绍和代码示例。另外,还有许多用于机器学习的高级库,如`Keras`和`TensorFlow`,它们也支持概率相关的组件。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值