1 前言
监督学习就是学习一个模型(或得到一个目标函数),再用这个模型,对给定的数据进行预测。
这个模型的一般形式为一个决策函数Y=f(X),或者条件概率分布P(Y|X)。
决策函数Y=f(X):输入一个X,它就输出一个Y,这个Y与一个阈值比较,根据比较结果判定X属于哪个类别。例如两类(w1和w2)分类问题,如果Y大于阈值,X就属于类w1,如果小于阈值就属于类w2。这样就得到了X的类别。
条件概率分布P(Y|X):输入一个X,它通过比较它属于所有类的概率,然后输出概率最大的那个作为X的类别。例如:如果P(w1|X)大于P(w2|X),那么就认为X是属于w1类的。
两个模型都能实现对给定的输入X预测相应的类别Y的功能。
实际上通过条件概率分布P(Y|X)进行预测也是隐含着表达成决策函数Y=f(X)的形式的。
而同样,实际上决策函数Y=f(X)也是隐含着使用P(Y|X)的。
因为一般决策函数Y=f(X)是通过学习算法使预测和训练数据之间的误差平方最小化,而贝叶斯告诉我们,虽然它没有显式的运用贝叶斯或者以某种形式计算概率,但它实际上也是在隐含的输出极大似然假设(MAP假设)。也就是说学习器的任务是在所有假设模型有相等的先验概率条件下,输出极大似然假设。
两个模型都能实现对给定的输入X预测相应的类别Y的功能。
实际上,通过条件概率分布P(Y|X)进行预测隐含着表达成决策函数Y=f(X)的形式的。例如两类w1和w2,如果我们求得了P(w1|X)和P(w2|X),那么实际上判别函数就可以表示为Y= P(