李航机器学习 | (7) 统计学习方法(第2版)笔记 --- 朴素贝叶斯习题与编程作业

 

1. 用极大似然估计法推出朴素贝叶斯法中的概率估计公式:

 

2. 用贝叶斯估计法推出朴素贝叶斯法中的概率估计公式:

 

3. 贝叶斯估计求解过程

4. 自编程实现朴素贝叶斯算法,对上述表格中的训练数据进行分类。

"""
朴素贝叶斯算法的实现
2019/4/12
"""
import numpy as np
import pandas as pd


class NaiveBayes():
    def __init__(self, lambda_):
        self.lambda_ = lambda_  # 贝叶斯系数 取0时,即为极大似然估计 非0时为贝叶斯估计
        self.y_types_count = None  # y的(类型:数量)
        self.y_types_proba = None  # y的(类型:概率)
        self.x_types_proba = dict()  # (xi 的编号,xi的取值,y的类型):概率

    def fit(self, X_train, y_train):
        self.y_types = np.unique(y_train)  # y的所有取值类型
        X = pd.DataFrame(X_train)  # 转化成pandas DataFrame数据格式,下同
        y = pd.DataFrame(y_train)
        # y的(类型:数量)统计
        self.y_types_count = y[0].value_counts()
        # y的(类型:概率)计算
        self.y_types_proba = (self.y_types_count + self.lambda_) / (y.shape[0] + len(self.y_types) * self.lambda_)

        # (xi 的编号,xi的取值,y的类型):概率的计算
        for idx in X.columns:  # 遍历xi
            for j in self.y_types:  # 选取每一个y的类型
                p_x_y = X[(y == j).values][idx].value_counts()  # 选择所有y==j为真的数据点的第idx个特征的值,并对这些值进行(类型:数量)统计
                for i in p_x_y.index:  # 计算(xi 的编号,xi的取值,y的类型):概率
                    self.x_types_proba[(idx, i, j)] = (p_x_y[i] + self.lambda_) / (
                            self.y_types_count[j] + p_x_y.shape[0] * self.lambda_)

    def predict(self, X_new):
        res = []
        for y in self.y_types:  # 遍历y的可能取值
            p_y = self.y_types_proba[y]  # 计算y的先验概率P(Y=ck)
            p_xy = 1
            for idx, x in enumerate(X_new):
                p_xy *= self.x_types_proba[(idx, x, y)]  # 计算P(X=(x1,x2...xd)/Y=ck)
            res.append(p_y * p_xy)
        for i in range(len(self.y_types)):
            print("[{}]对应概率:{:.2%}".format(self.y_types[i], res[i]))
        # 返回最大后验概率对应的y值
        return self.y_types[np.argmax(res)]


def main():
    X_train = np.array([
        [1, "S"],
        [1, "M"],
        [1, "M"],
        [1, "S"],
        [1, "S"],
        [2, "S"],
        [2, "M"],
        [2, "M"],
        [2, "L"],
        [2, "L"],
        [3, "L"],
        [3, "M"],
        [3, "M"],
        [3, "L"],
        [3, "L"]
    ])
    #标签
    y_train = np.array([-1, -1, 1, 1, -1, -1, -1, 1, 1, 1, 1, 1, 1, 1, -1])
    #创建朴素贝叶斯分类器对象
    clf = NaiveBayes(lambda_=0.2)
    #训练 计算先验概率和条件概率
    clf.fit(X_train, y_train)
    #预测样本
    X_new = np.array([2, "S"])
    #预测
    y_predict = clf.predict(X_new)
    print("{}被分类为:{}".format(X_new, y_predict))


if __name__ == "__main__":
    main()

 

5. 试分别调用 sklearn.naive_bayes 的 GaussianNB、BernoulliNB、MultinomialNB 模块,对上述表格中训练数据进行分类。

之前碰到的都是特征是离散变量情形,如果特征是连续变量,如身高(如果训练集身高有175,177,如果把他当作离散变量来做,会有问题,比如预测时出现身高=176.5就没办法做了),此时要使用高斯分布。

"""
朴素贝叶斯算法sklearn实现
2019/4/15
"""

import numpy as np
from sklearn.naive_bayes import GaussianNB, BernoulliNB, MultinomialNB
from sklearn import preprocessing  # 预处理


def main():
    X_train = np.array([
        [1, "S"],
        [1, "M"],
        [1, "M"],
        [1, "S"],
        [1, "S"],
        [2, "S"],
        [2, "M"],
        [2, "M"],
        [2, "L"],
        [2, "L"],
        [3, "L"],
        [3, "M"],
        [3, "M"],
        [3, "L"],
        [3, "L"]
    ])
    y_train = np.array([-1, -1, 1, 1, -1, -1, -1, 1, 1, 1, 1, 1, 1, 1, -1])
    #对于离散型特征,我们要进行预处理 使每一个样本在每个特征上的取值为0或1
    #比如第一个样本 的特征为1,S;其中第一个特征有三个取值 第二个特征也有三个取值
    #转换后的特征为 1 0 0 0 0 1 (分别对应 1 2 3 L M S)
    enc = preprocessing.OneHotEncoder(categories='auto')
    enc.fit(X_train)
    X_train = enc.transform(X_train).toarray()
    print(X_train)
    print("---------------")
    clf = MultinomialNB(alpha=0.0000001) #离散变量
    clf.fit(X_train, y_train)
    X_new = np.array([[2, "S"]]) #对预测样本也做相同的转换
    X_new = enc.transform(X_new).toarray() 
    y_predict = clf.predict(X_new)
    print("{}被分类为:{}".format(X_new, y_predict))
    print("---------------")
    print(clf.predict_proba(X_new))  #归一化概率


if __name__ == "__main__":
    main()

 

 

  • 5
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
第四章李航统计学习方法(第二)详细介绍了朴素贝叶斯以及其编程实现。朴素贝叶斯是基于贝叶斯定理和特征条件独立假设的分类算。它通过计算给定类别的先验概率和各个特征的条件概率来进行分类。 在编程实现朴素贝叶斯的过程中,我们可以使用Python语言和sklearn模块来简化实现过程。sklearn是Python中一个非常常用的机器学习库,其中包含了很多经典的机器学习和常用的工具函数。 具体实现朴素贝叶斯可以分为以下几个步骤: 1. 引入相应的库和模块: ```python from sklearn.naive_bayes import GaussianNB ``` 2. 创建一个朴素贝叶斯分类器对象: ```python clf = GaussianNB() ``` 3. 准备训练数据和标签: ```python X_train = [[方法1特征1, 方法1特征2, ...], [方法2特征1, 方法2特征2, ...], ...] y_train = [标签1, 标签2, ...] ``` 4. 训练模型: ```python clf.fit(X_train, y_train) ``` 5. 准备测试数据: ```python X_test = [[方法3特征1, 方法3特征2, ...], [方法4特征1, 方法4特征2, ...], ...] ``` 6. 进行预测: ```python y_pred = clf.predict(X_test) ``` 这样就可以使用sklearn中的朴素贝叶斯模块来实现分类任务。实际上,sklearn还提供了多个不同的朴素贝叶斯的实现,如高斯朴素贝叶斯(GaussianNB)、多项式朴素贝叶斯(MultinomialNB)和伯努利朴素贝叶斯(BernoulliNB)等。 总之,通过使用sklearn模块来调用朴素贝叶斯,可以方便地实现并应用该算进行分类任务,并且能够根据需要选择不同的朴素贝叶斯模型。建议阅读第四章李航统计学习方法(第二)来更加深入地理解朴素贝叶斯的原理和实现细节。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值