生成学习算法
定义是要去model p(x|y),也就是求每个y值对应的特征相比于逻辑回归,生成学习算法有点追根溯源的感觉,然后根据求得的p(x|y)和先验概率p(y),使用贝叶斯公式求得p(y|x)
1.高斯判别法
具体逻辑没学懂。感觉是对若干个类别分别套上高斯分布
GDA可以写成逻辑回归的形式,相对于逻辑回归来说,GDA是一种更加严格的形式。在实践中,使用逻辑回归会更加普遍
2.朴素贝叶斯
假设用来分类的所有特征都是独立的
还没研究的点:多元事件模型
3.小总结
当连续分布不能很好地使用GDA时,这时候可以离散他们,然后使用朴素贝叶斯
4.拉普拉斯平滑
因为朴素贝叶斯可能得出0/0的结果,所以对于每一项,如果是0就看作1,如果是1就看做2。这样算出来的概率更加接近真实