似然函数的详细分析----似然函数的本质意义

数理统计学中,似然函数是一种关于统计模型中的参数函数,表示模型参数中的似然性


似然函数在统计推断中有重大作用,如在最大似然估计费雪信息之中的应用等等。“似然性”与“或然性”或“概率”意思相近,都是指某种事件发生的可能性,但是在统计学中,“似然性”和“或然性”或“概率”又有明确的区分。


概率 用于在已知一些参数的情况下,预测接下来的观测所得到的结果,而

似然性 则是用于在已知某些观测所得到的结果时,对有关事物的性质的参数进行估计。

 

在这种意义上,似然函数可以理解为条件概率的逆反。


在已知某个参数B时,事件A会发生的概率写作\mathbb{P}(A \mid B)

P(A \mid B) = \frac{P(A , B)}{P(B)} \!

利用贝叶斯定理

P(B \mid A) = \frac{P(A \mid B)\;P(B)}{P(A)} \!


因此,我们可以反过来构造表示似然性的方法:已知有事件A发生,运用似然函数\mathbb{L}(B \mid A),我们估计参数B的可能性。

形式上,似然函数也是一种条件概率函数,但我们关注的变量改变了:


b\mapsto P(A \mid B=b)  \!

注意到这里并不要求似然函数满足归一性:\sum_{b \in \mathcal{B}}P(A \mid B=b) = 1。一个似然函数乘以一个正的常数之后仍然是似然函数。对所有α > 0,都可以有似然函数:

 

L(b \mid A) = \alpha \; P(A \mid B=b) \!

 

例子:

考虑投掷一枚硬币的实验。通常来说,已知投出的硬币正面朝上和反面朝上的概率各自是pH = 0.5,便可以知道投掷若干次后出现各种结果的可能性。比如说,投两次都是正面朝上的概率是0.25。用条件概率表示,就是:

P(\mbox{HH} \mid p_H = 0.5) = 0.5^2 = 0.25

其中H表示正面朝上。

在统计学中,我们关心的是在已知一系列投掷的结果时,关于硬币投掷时正面朝上的可能性的信息。我们可以建立一个统计模型:假设硬币投出时会有pH 的概率正面朝上,而有1 − pH 的概率反面朝上。这时,条件概率可以改写成似然函数:

L(p_H =  0.5 \mid \mbox{HH}) = P(\mbox{HH}\mid p_H = 0.5) =0.25

也就是说,对于取定的似然函数,在观测到两次投掷都是正面朝上时,pH = 0.5 的似然性是0.25(这并不表示当观测到两次正面朝上时pH = 0.5 的概率是0.25)。

如果考虑pH = 0.6,那么似然函数的值也会改变。

L(p_H = 0.6 \mid \mbox{HH}) = P(\mbox{HH}\mid p_H = 0.6) =0.36

注意到似然函数的值变大了。这说明,如果参数pH 的取值变成0.6的话,结果观测到连续两次正面朝上的概率要比假设pH = 0.5时更大。也就是说,参数pH 取成0.6 要比取成0.5 更有说服力,更为“合理”。总之,似然函数的重要性不是它的具体取值,而是当参数变化时函数到底变小还是变大。对同一个似然函数,如果存在一个参数值,使得它的函数值达到最大的话,那么这个值就是最为“合理”的参数值。

在这个例子中,似然函数实际上等于:

L(p_H = \theta  \mid \mbox{HH}) = P(\mbox{HH}\mid p_H = \theta) =\theta^2 , 其中 0 \le p_H  \le 1

如果取pH = 1,那么似然函数达到最大值1。也就是说,当连续观测到两次正面朝上时,假设硬币投掷时正面朝上的概率为1是最合理的。

类似地,如果观测到的是三次投掷硬币,头两次正面朝上,第三次反面朝上,那么似然函数将会是:

L(p_H = \theta  \mid \mbox{HHT}) = P(\mbox{HHT}\mid p_H = \theta) =\theta^2(1 - \theta) , 其中 T表示反面朝上, 0 \le p_H  \le 1

这时候,似然函数的最大值将会在p_H = \frac{2}{3}的时候取到。也就是说,当观测到三次投掷中前两次正面朝上而后一次反面朝上时,估计硬币投掷时正面朝上的概率p_H = \frac{2}{3}是最合理的。

  • 40
    点赞
  • 150
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
### 回答1: 1. MDL准则(Minimum Description Length criterion)是一种模型选择方法,它通过最小化模型描述的长度来选择最优的模型。根据MDL准则,最优的模型应该能够最好地描述已观测到的数据,同时也要尽量简洁,避免过拟合现象。MDL准则的本质是在模型复杂度和数据覆盖度之间取得平衡,从而得到偏好简洁且能解释数据的模型。 2. 信源数估计是在信息论中常用的一种方法,用于估计离散信源所需的最小码长。它能够评估信源中的统计特性,如熵和条件熵,并根据这些特性确定编码方案的最优性。信源数估计是在给定固定码长的条件下,通过改变编码方案中的符号数来控制编码效率。较高的信源数估计表示可以用较短的编码长度来表示源符号,从而提高编码效率。 3. 似然函数是统计学中常用的一种方法,用于估计模型参数的概率分布。似然函数描述了在已知观测数据的条件下,模型参数取值的可能性大小。它的计算通常基于概率密度函数或概率质量函数,通过最大化似然函数可以得到最优的参数估计值。似然函数在参数估计和假设检验等领域起着重要的作用,能够帮助我们根据观测数据推断出最有可能的模型参数取值。 ### 回答2: MDL准则是模型描述长度(Minimum Description Length)准则的简称。它是一种模型选择准则,用于在给定的数据集上选择最优的统计模型。该准则认为,最优的模型应即使尽可能简洁又能对数据进行最好的适应。 信源数估计是一种通过统计方法估计信源的模型复杂度的方法。在MDL准则中,信源数估计用于评价不同模型对数据的拟合程度。信源数估计的本质是通过对数据进行概率建模来估计模型的参数数量和复杂度。 似然函数是在统计学中常用的一个概念,它是指在给定模型参数的情况下,样本观测值发生的概率。在MDL准则中,似然函数用于衡量给定模型下数据观察到的概率,即数据与模型的匹配程度。 综上所述,MDL准则是一种利用信源数估计和似然函数来选择最优模型的准则。通过对不同模型的概率建模和参数估计,可以计算出模型的描述长度和数据的匹配程度。在实际应用中,我们通常选择具有最小描述长度和较高似然函数值的模型作为最优模型。该准则在机器学习和统计学中有着广泛的应用,可用于模型选择、模型比较和模型解释等领域。 ### 回答3: 1. MDL准则是一种用于模型选择和参数估计的方法。基本理念是选择那个能够最好地平衡模型复杂度和数据适应度的模型。MDL准则采用了奥卡姆剃刀原理,即越简单的模型越好。 2. 信源数估计是一种用于估计数据的自信息量的方法。自信息量表示事件发生的意外程度,即一个事件发生所能提供的信息量。信源数估计可以用于评估信源或数据流中的类别数量,对于数据压缩、特征选择等应用具有重要意义。 3. 似然函数是一种用于估计模型参数的方法。似然函数用于衡量给定模型参数条件下,观测数据出现的概率,或者说是一种描述观测数据与模型之间匹配程度的度量。似然函数的最大值通常对应于最优的模型参数,并可以用于模型拟合、最大似然估计等应用中。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值