统计自然语言处理——概率论基础

本文探讨了统计自然语言处理中的概率论基础知识,包括概率、条件概率与独立性、贝叶斯定理、随机变量、期望与方差、联合分布和条件分布以及二项分布和正态分布等概念。在NLP中,这些概率概念被用于模型建立和分析,如马尔可夫模型,以及在处理语料库时进行独立性假设。
摘要由CSDN通过智能技术生成

对于从事统计自然语言处理来说,了解概率论、信息论以及语言学知识都是很有必要的。
下面内容主要介绍了在统计自然语言处理中需要了解的概率论基础

概率

如果P(A)作为事件A的概率,Ω是试验的样本空间,则概率函数满足下面三条公理:

  • 非负性 P(A) >= 0
  • 规范性 P(Ω) = 1
  • 可列可加性:对于不相交的集合Aj ∈F
    这里写图片描述

条件概率和独立性

假设事件B的概率已知,那么事件A发生的条件概率为(P(B) > 0):
这里写图片描述
这里写图片描述
这里写图片描述
在统计自然语言处理中,上面那个链式法则很有用处,比如推导马尔可夫模型的性质。

贝叶斯定理

由条件概率和链式规则推得:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值