概率论对于学习 NLP 方向的人,重要性不言而喻。于是我打算从概率论基础篇开始复习,也顺便巩固巩固基础。
这是基础篇的第九篇知识点总结
注意:这是基础篇,暂时不涉及高阶内容
基础:下面前八篇的链接地址:
概率论基础(1)古典和几何概型及事件运算
概率论基础(2)条件概率、全概率公式和贝叶斯公式
概率论基础(3)一维随机变量(离散型和连续型)
概率论基础(4)五种重要的分布(二项、泊松、均匀、指数、正态分布)
概率论基础(5)离散型二维随机变量
概率论基础(6)连续型二维随机变量
概率论基础(7)数学期望、方差、协方差、切比雪夫不等式
概率论基础(8)抽样分样
知识点
- 矩估计法
- 最大似然估计法
- 无偏估计
矩估计
矩估计有常用的解决方法:
例题:
理解:注意分清是求矩估计量,还是求估计值
最大似然估计
第一步意义是构造似然函数。
例题:
第一问是矩估计法
第二问是最大似然法
算出来的是最大似然估计值,如果求的是最大似然估计量最后应该是这种形式:
中间高数的步骤可以省略。
无偏估计
公式:
常用结论:
理解:是不是无偏估计可以直接代入来看比较,从而判断结果。
理解:根据样本方差的定义,可以得出结果。
这里给出额外的一点练习: