机器学习中贝叶斯判决、概率分布、样本等概念间的关系

1. 机器学习的一些概念:
什么是机器学习?
机器学习包含哪些基本要素?
机器学习,就是由已知数据,训练出一个模型,形成一个假设的空间,在拿到新的数据后,能在假设空间搜索出一个合理的结果。
如何建立模型,才是机器学习算法的核心 ,包括假设,推理,验证。
如何保证目标概念在假设空间内?
是否有包含所有假设的空间?
如何保证收敛?
假设空间的大小与训练样例数量的关系?

概率、贝叶斯公式与机器学习的关系?
概率论,特别是贝叶斯公式,为机器学习提供了强有力的推导依据。
1. 统计与概率、机器学习是什么关系?
概率论及其分布函数、特性,是理论基础。而统计是应用,利用样本统计量来估计概率模型中的参数,而后更进一步获取更有用的统计数据。
统计是机器学习中统计判决部分的理论基础。或者是说统计分析在机器学习方面的应用。

2. 
贝叶斯学习
两个前提条件:
1)类别,一般是已知类别的个数,各个类别的需要概率的初始知识,即先验概率P(h)。
2)特征数据在各个类别中的概率分布,即先验条件分布P(x|h)。

待解决的问题:
已知采集的数据:
训练数据D:包含特征数据和类别
求:
假设的分类面,或者一个采集到数据的分类。

其中,问题又可分为 类别的先验概率P(h)已知,和未知两种情况。
1)P(h)已知的情况。求解,相对简单,普通的贝叶斯公式。
2)P(h)未知,但一种类别的错误率已知的情况,求另外一个类别的错误率。可以利用 聂曼-皮尔逊决策(N-P判决) 来计算决策面。
3. h为类别,D为特征数据,P(D|h)与P(h|D)的区别?
计算假设目标的概率P(D|h). 假设成立时,观测到D的概率。有多种假设 都能观测到数据D,每种假设所占的比率。先验概率
P(h|D),假设h的后验概率,其反应了训练数据后,假设h成立的概率。其反应了训练数据的影响。
但先验概率p(h)是与训练数据D相互独立的.

极大后验假设MAP, max a posteriori 最大可能假设。
MAP = max(P(h|D))

贝叶斯推理的概率,很大程度上依赖于 先验概率。 首先,需要知道 先验概率。

由贝叶斯推理,推导出最大似然估计,再推导出最小方差估计(平方误差最小估计)
---------------------------------------
1. 
在模式分类中,贝叶斯决策,比较简单的场景是:先验概率已知,然后,某两种或多种条件下,某事件发生的概率已知。 求出后验概率,即贝叶斯公式,根据后验概率的大小,做出决策。

稍微复杂的场景:
先验概率已知,连续概率密度函数的类型已知,但是参数未知。 有大量的抽样数据,
则据抽样数据,估计概率密度函数的参数。

然后,据贝叶斯公式,计算出决策函数,决策面。

拿到决策面,就能对测试数据进行分类了。

在这里,有几个问题,如果弄清楚,对贝叶斯决策就会由比较清晰的掌握。
1)什么判决函数,什么是判决面?
对特征点进行分类的界面,就是判决面;而分类界面的函数就是判决函数。

2) 后验概率与贝叶斯公式的关系,使用后验概率、贝叶斯决策的先决条件?
类别的经验分布概率、特征在不同类别下的先验概率(即条件概率)已知,或者可计算

3)经典分布概率,包括
类别的先验概率
类别特征的条件经验分布概率,即特征在不同类别中的概率

4) max 与最小误差判决面的关系

5)高斯分布
如何求每个类别的高斯分布?
相邻判决面的求解?那非相邻类别那?

6)高斯分布的分类,哪些因素有关?
均值:决定中心位置
方差:决定了判决面到中的距离

7) 错误率有哪些?
P1(e): P(w2|x), 分类为w1时,错误率
P2(e): P(w1|x), 分类为w2时,错误率
如何计算总的错误率?
P(e) = 积分(max[P(w2|x)*P(x), P(w1|x)*P(x)])

如何应用最大似然估计推导错误率?
错误样本的个数t,总样本个数为N,假设错误率为e
则其联合分布密度为
二项分布
求极值
计算出,错误率的估计量 t/N

8)聂曼-皮尔逊决策 的使用场景:
P(wi)先验概率未知,在P2(e)已知的情况下,使P1(e)尽可能小的决策面。求判决阈值。

采用拉格朗日乘数法 进行推导计算。
因为P1(e)错误的后果比较严重,所以要严格限制其错误率。
两种类别的概率密度函数已知:p(x|w1), p(x|w2)
则判决函数为 p(x|w1) / p(x|w2)
判决面为 p(x|w1) / p(x|w2) = lamda, lamda为阈值。

阈值lamda如何求解?
已知错误率P1(e),p(x1 | w1), 查表,可以求出阈值


9) 均值向量,协方差矩阵未知情况下,如何利用样本进行估计
向量形式:均值

协方差矩阵:

bays的训练,就是利用各个类别的样本,估计各个类别的方差和均值。然后计算决策面。

判决函数,应该是一组空间的集合;而判决面就是两组空间的交集/交面。
---------------------------------------

归纳偏置
什么是无偏的学习器?
期望与样本均值相等。线性特征。
学习器必须对目标概念做预先的假设,否则无法对未来的实例进行分类。
由于归纳学习需要预先假设,这种形式,被称为归纳偏置。 用自己话说就是 归纳假设。

如何评估假设?
1. 估计的方差
均值的误差程度,也是概率分布的宽度或散度。随机变量与其均值的差有多大。即使均值无偏,方差可能比较大。
2. 估计的偏差
期望值,与真实值,差距

精度的分析
即或是分类的精度
样本错误率:统计样本被错误分类的比率
真实错误率:按真实概率分布抽取实例,然后统计器错误率

样本错误率与真实错误率的关系?
样本错误率是对真实错误率的估计。
如何评价这种估计?
统计理论:
100%:真实错误率,是样本错误率
95%:真实错误率,是一个区间,以样本错误率为中心的区间
百分比,又称为置信度,而真实错误率的区间,又称为,置信区间。对于二项分布,样本个数越大,置信度不变,置信区间就越小。

测试样本错误率多次
每次选用不同的样本,统计的错误率符合 二项分布。

独立且多次尝试的0-1实验,生成一个独立的、同分布的随机变量序列,这个序列
其分布为 二项分布


np(1-p) >= 5 或 n>=30时,二项分布可以用正态分布近似表示。
--------------------------------------------------
1. 朴素贝叶斯分类器
即MAP,最大后验概率分类器。如何训练分类器?
已知训练数据。
只需统计各个类别的频率p(h),及特征数据在各个类别中的频率(D|h)。
已知待分类数据D,可以求其max(P(h|D)),等同于max(p(hj) * p(D|hj))

2. 贝叶斯网络
是指一组条件概率,而朴素贝叶斯分类器假设所有特征变量是相互独立的。而贝叶斯网络将此条件放宽。
理解贝叶斯网络,就需要理解条件独立性。两个变量间无相互影响,及相互独立。条件独立,两个变量,在给定条件下,如第三个变量的指定值的条件下,相互独立。

条件概率,具有传播性,形成一个链式的规则。

x -> y -> z -> w
每两个相邻变量的条件概率都知道,如何求P(w|x)。这就是贝叶斯定理的概率传播。

联合概分布的求解。
p(xyzw) = p(x) * p(y|x) * p(z|x,y) * p(w|x, y, z)

贝叶斯网络的一个重要性质,一个节点独立于非前驱节点。即p(xi | x(i-1)...x1) = p(xi | x(i-1)) 类似马尔科夫过程。
贝叶斯网络,也可以看做马尔科夫链的非线性扩展。

结构形式:
有向无环图(DAG),即是一个前向多段图的结构

如何学习 贝叶斯置信网络?
1. 可以预先给出网络结构
2. 也可以 由训练数据来获取

网络变量如何获取?
有的可以从训练样例中得到,有些不能得到。

需要理解的概念:
1. 条件概率,条件独立性。
p(x3 | x2, x1) = p(x3 | x2)
p(x3 | x1)  链式计算
p(x1 | x3)
或者,可以理解,给定前驱节点的值时,本节点独立于非前驱节点。而前驱节点不确定时,本节点与非相邻节点就有不独立了。
2. 贝叶斯网络的概率推理,概率链式计算。
3. 变量消元算法,进行推理计算
4. 团树传播算法,进行推理计算
5. 近似推理,大数定律

6. 结构学习:发现变量之间的图关系
7. 参数学习: 决定变量之间相互关联的量化关系: 最大似然估计,贝叶斯估计

------------------------------------------------------------------------------------------------

高斯混合模型
序列视频图像,背景分析的处理方式:
1. 直接选用一帧,作为背景
2. 序列图像,加权
3. 高斯混合建模GMM
1)判定
2)更新
前两个比较好理解。而GMM的理解需要 高斯分布、样本与总体的关系理解作为基础。
单分布高斯背景建模 是指所有像素都服从同一分布。
高斯混合背景建模 是指多个像素服从不同的高斯分布,且不同的权值。

首先,假设,一个像素点作为背景像素的分布服从高斯分布。一个像素点的连续序列如X1,X2,...Xn都是随机变量,服从同一正态分布。即单分布高斯背景建模
而一个像素点的实际值就是样本值。
样本与样本值要区分开的。

高斯分布的参数:期望,方差都是未知的。所以,需要样本进行估计分析。

由序列图像,可以计算出样本均值/期望,样本方差/协方差,再有一个样本值,与均值、样本值的关系。当大于某阈值时,就认定为背景,小于某阈值时,判定为前景。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值