【深入理解贝叶斯公式】通过最大似然估计、最大后验估计与最小二乘法来阐述

本文深入探讨贝叶斯公式,解析条件概率、先验概率与后验概率的关系。通过实例阐述最大似然估计与最大后验概率估计的原理,并对比最小二乘法,揭示它们在统计推断中的应用和区别。
摘要由CSDN通过智能技术生成

0 Preview

  1. 首先理解概率和似然概率的区别
  • 概率:指给定参数之后,预测即将发生的事件的可能性;
  • 似然概率:已经发生了某些事件,反推最优的参数;
  • 最大似然概率:在已知观测数据的前提之下,找到使得似然概率最大的那个参数值。(注意:最大似然估计中概率分布是已知的)
  1. 概率(probability)和统计(statistics)是一个东西吗?
    看似两个相近的概念(概率与统计),其研究的问题恰好相反。
  • 概率(probability)是已知模型 y i y_i yi和参数 θ \theta θ,推数据 x i x_i xi
  • 统计是已知数据 x i x_i xi,推模型 y i y_i yi和参数 θ \theta θ
  1. 本文首先引入Beyas理论,在此基础上对MLE与MAP做出了阐述推导以及举例,最后比较了最大似然估计与最小二乘法的区别

1 贝叶斯公式

1.1 条件概率

1.1.1 引入条件概率的三大公式

乘法公式、全概率公式与贝叶斯公式(本节围绕beyas公式展开说明)
在这里插入图片描述

1.1.2 理解先验概率、后验概率与条件概率

在这里插入图片描述

简单理解就是:

  • 先验概率 P ( w i ) P(w_i) P(wi)就是已知类别 w i w_i wi并求该类别发生的概率
  • 后验概率就是已知样本 X X X求其属于类别 w i w_i wi类别的概率 P ( w i ∣ X ) P(w_i|X) P(wiX)
  • 条件概率就是已知类别 w i w_i wi求其样本 X X X的概率 P ( X ∣ w i ) P(X|w_i) P(Xwi),也被称作 w i w_i wi的似然函数

1.1.3 举例让我们更好的理解先验后验

在这里插入图片描述

问题描述与解读

  • 0
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值