【机器学习+python(6)】朴素贝叶斯告诉你这样的男生会有女朋友

欢迎关注哈希大数据微信公众号【哈希大数据】


朴素贝叶斯告诉你什么样的男生有女朋友

当迎面走来一个身材高挑、且金发碧眼的小姐姐,在这样的外貌特点下,定会在心中默叹俄罗斯姑娘真好看;

当我们看到天空乌云密布,电闪雷鸣并阵阵狂风,在这样的天气特征下,我们会推断大概是要下雨了;

基于一些特定的条件或特征,大多数人都会产生一个共同的反应。而这正是朴素贝叶斯(Naive Bayesian)最核心的理念。因此本节我们将重点介绍朴素贝叶斯算法的基本原理和实际应用,来帮我们判断什么类型的男生会有女朋友。

1.朴素贝叶斯基本原理

概念介绍

朴素贝叶斯(Naive Bayesian)是基于贝叶斯定理、条件概率、特征独立分布的分类方法,它通过样本特征计算分类的概率,根据概率大小确定分类的结果。因此它是基于概率论的一种机器学习分类方法。其分类的目标是事先给定的,所以是属于监督学习的一种。

通俗的讲,就是在给定数据集的前提下,对于新的样本,需要在数据集中找寻特征相同的样本,并且计算已有的这些相似的样本分别属于哪一类。比较得出概率最大的为A类型则判断新的这个样本属于类型A。

数学模型

贝叶斯定理,对一个分类问题,给定样本特征x,样本属于类别y的概率是:

image

在这里,x 是一个特征向量,设 x 维度为 M。因为假设不同特征之间是相互独立,互不影响的。因此根据全概率公式,可以得出完整的概率公式:表示当属性为x时,样本属于类型ck的概率。

image

我们已知p(x)对于数据集中的所有类型而言是一个常数,因此只需要进一步最大化分子就能得出最终结果。也就是分别估计出,特征 Χi 在每一类的条件概率就可以了。类别 y 的先验概率p(y=ck)可以通过训练集算出,同样通过对训练集训练,即可获得对应每一类特征的条件概率。

算法特征

优点:在数据较少的情况下仍然有效,而且可以处理多类别问题,分类效率稳定。

缺点:要求各个属性之间必须相互独立。

2 男生特征数据集分析

训练数据

终于来到正题咯,一共收集了168条男生的专业、身高为属性的训练数据集。其中是否有女朋友为类别,1代表有女朋友,0代表还是single dog。

image

获取该数据集

    def getTrainSet(self):        # 获取数据集        trainSet = pd.read_csv('../data/naivebayes_data.csv')        # 转换数据类型        trainSetNP = np.array(trainSet)        # 获取男生的特征属性专业和身高        trainData = trainSetNP[:,0:trainSetNP.shape[1]-1]           # 获取是否有女朋友,0表示没有1表示有        labels = trainSetNP[:,trainSetNP.shape[1]-1]                  return trainData, labels

测试数据

朴素贝叶斯算法的特征要求都是离散值,如果是连续值,得先对连续值进行离散化处理。贝叶斯算法只能对训练集中已有的数据属性进行分类预测,因此我们建立九个测试数据集。

features_all = [['art','short'],['art','medium'],['art','tall'],['computer','short'],['computer','medium'],['computer','tall'],['mathematica','short'],['mathematica','medium'],['mathematica','tall'],]

3 python实现朴素贝叶斯分类

    def naive_bayes(self, trainData, labels, features):        labels = list(labels)    #转换为list类型        # 计算先验概率        P_y = {}        for label in labels:            P_y[label] = (labels.count(label) + self.A) / float(len(labels) + self.K*self.A)        # 计算条件概率        P = {}        for y in P_y.keys():            # 区分不同的分类,此数据中分为0,1两类            y_index = [i for i, label in enumerate(labels) if label == y]            # 计算每种类型出现的次数            y_count = labels.count(y)            for j in range(len(features)):                pkey = str(features[j]) + '|' + str(y)                # 区分不同属性集,专业和身高的一一对应                x_index = [i for i, x in enumerate(trainData[:,j]) if x == features[j]]                # 计算特征x和对应的类别出现的次数                xy_count = len(set(x_index) & set(y_index))                # 计算条件概率                P[pkey] = (xy_count + self.A) / float(y_count + self.S*self.A)        #features所属类        F = {}        for y in P_y.keys():            F[y] = P_y[y]            for x in features:                F[y] = F[y] * P[str(x)+'|'+str(y)]        # 得到概率最大的类别        features_y = max(F, key=F.get)        return features_y

呐分类结果:请自行体会

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值