1、先导知识
- 为什么朴素
朴素贝叶斯法对条件概率分布作了条件独立性假设。 - 参数估计和推导过程
![](https://img-blog.csdnimg.cn/20190213142104399.jpg?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzIwMDk1Mzg5,size_16,color_FFFFFF,t_70,width=70%)
2、朴素贝叶斯算法
朴素贝叶斯其实很简单,之前看了好几遍,但总是会忘记,感觉被深度学习荼毒太深。
这样想,朴素贝叶斯算的也是有监督的东西,那么无非就是输入x,输出y。如果需要得到参数,那么就是根据输入x和对应的标签y,求条件概率 P ( y ∣ x ) P(y|x) P(y∣x)。
这样就好办了,我们可以知道的是 P ( x ∣ y ) P(x|y) P(x∣y), P ( y ) P(y) P(y),因为有标签啊~ 又因为算的是朴素贝叶斯,数学公式稍微一推导,很简单就可以得出下面的算法。
![](https://img-blog.csdnimg.cn/2019021314231717.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzIwMDk1Mzg5,size_16,color_FFFFFF,t_70,width=70%)
3、拉普拉斯平滑估计
起那么复杂的名字,简单的说就是万一数据集中狗的训练数据为0咋办,总不能求条件概率的时候除个0吧,因此就加上了所谓的拉普拉斯平滑估计,无非就是分母上加一个epsion.
![](https://img-blog.csdnimg.cn/20190213143221278.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzIwMDk1Mzg5,size_16,color_FFFFFF,t_70,width=70%)
4、极大似然估计理解
下面博文讲的特别好,拷贝过来
https://blog.csdn.net/class_brick/article/details/79724660
极大似然估计可以拆成三个词,分别是“极大”、“似然”、“估计”,分别的意思如下:
极大:最大的概率
似然:看起来是这个样子的
估计:就是这个样子的
连起来就是,最大的概率看起来是这个样子的那就是这个样子的。
举个例子:
有两个妈妈带着一个小孩到了你的面前,妈妈A和小孩长得很像,妈妈B和小孩一点都不像,问你谁是孩子的妈妈,你说是妈妈A。好的,那这种时候你所采取的方式就是极大似然估计:妈妈A和小孩长得像,所以妈妈A是小孩的妈妈的概率大,这样妈妈A看来就是小孩的妈妈,妈妈A就是小孩的妈妈。