[机器学习]-决策树-最简单的入门实战例子

本文主要介绍决策树的基本概念和如最简单的入门实例

第一部分--基本概念:

  什么是决策树?

    我不打算搞一段标准的定义放在这里,我个人理解是建立一个树来帮助决策,下面以一个图说明一下(注:图是盗别人的)

      

 

    这就是一个决策树,从图中可以一目了然的了解决策树的概念,上面的图中只有一个属性来决定这个人是男还是女,一个属性往往决定的结果并不准确,比如小孩都没有胡子,但是并不能认为小孩都是女孩,这显然不行,那怎么办?如果想相对准确判断,需要再增加属性,比如增加个喉结,如下图:

      

    上图就是由两个属性来决定结果,那引出了一个重要的问题,是从胡子开始分,还是从喉结开始分呢?就是每个节点为什么是这样排序,就引出了信息熵的概念

  什么是信息熵?

      简单来说信息熵,就是反映一个系统的混乱程度,越有序的系统,信息熵越小,反之越大,上面是用了胡子和喉结作为属性来判断一个人是男是女,但是这个系统的不确定性还是很大的,比如一个没有喉结又没有胡子的人,并不一定是女人,可能是小孩,那如果根据这个人有没有JJ,作为判断的依据,那不确定性就会很低,信息熵就会很小。

      这里没有举个具体的数字计算,也没有贴公式,主要是编辑数学公式太麻烦,其实公式就是信息的期望。

      通过上面的介绍,就可以知道,可以通过计算信息熵来确定从哪个属性开始分,哪个属性作为根节点。

  

第二部分--代码:

  I.数据如下:(goatee 翻译 胡子),只有四个样本,测试样本就一个,在代码中有

    

  II.代码:

# -*- coding: utf-8 -*-
import pandas as pd
from sklearn.feature_extraction import DictVectorizer
from sklearn.preprocessing.label import  LabelBinarizer
from sklearn import tree

def decision_tree():
    df = pd.read_excel('../data/K-NN/DecisionTree.xlsx')
  #要预测的值
    label_feature = df['sex'].values
    print('label_feature:\n'+str(label_feature))
  #属性
    df_feature = df['goatee']
    feature_list = []
    for i in df_feature.values:
        dt_dict = {}
        dt_dict['goatee'] = i
        feature_list.append(dt_dict)
  #封装成需要的数据格式
    print('feature_list:\n' + str(feature_list))
    dcv = DictVectorizer()
  #将字典转化为数字
    dummyX = dcv.fit_transform(feature_list).toarray()
    print('dummyX:\n'+ str(dummyX))
    lb = LabelBinarizer()
    dummyY = lb.fit_transform(label_feature)
    # dummy = dcv.fit_transform(label_feature)
    print('dummyY:\n' + str(dummyY))
  #使用信息熵的规则进行分类
    clf = tree.DecisionTreeClassifier(criterion='entropy')
    clf = clf.fit(dummyX,dummyY)
  #生成测试数据
    oneDummyX = dummyX[0]
    oneDummyX[0] = 0
    newDummyX = oneDummyX
    print('feature_names'+str(dcv.get_feature_names()))
    print('newDummyX:\n'+str(newDummyX))
  #使用测试数据进行预测
    prediction = clf.predict([newDummyX])
    print('prediction:\n'+str(prediction))
if __name__ == '__main__':
    decision_tree()
 
 

----------------------------------------------------------菇凉滑溜溜的马甲线-----------------------------------------------------

#输出结果为:
label_feature:
  ['man' 'woman' 'man' 'woman']
feature_list:
  [{'goatee': 'yes'}, {'goatee': 'no'}, {'goatee': 'yes'}, {'goatee': 'no'}]
dummyX:
  [[0. 1.]
   [1. 0.]
   [0. 1.]
   [1. 0.]]
dummyY:
  [[0]
   [1]
   [0]
   [1]]
feature_names:
  ['goatee=no', 'goatee=yes']
newDummyX:
  [0. 1.]
prediction:
  [0]

 

转载于:https://www.cnblogs.com/gunduzi/p/10615700.html

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
决策树是一种基本的分类和回归方法,它可以通过训练数据集来建立一个树形结构的模型,用于预测新数据的分类或数值。 在Python中,我们可以使用scikit-learn库来实现决策树。下面是一个简单例子,展示如何使用决策树来进行分类。 首先,我们需要准备训练数据集和测试数据集。假设我们有一个包含三个特征的数据集,其中每个样本都属于两个类别之一: ```python from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split from sklearn.tree import DecisionTreeClassifier # 加载Iris数据集 iris = load_iris() # 创建训练数据集和测试数据集 X_train, X_test, y_train, y_test = train_test_split( iris.data, iris.target, test_size=0.3, random_state=42) # 创建决策树分类器 clf = DecisionTreeClassifier() # 训练模型 clf.fit(X_train, y_train) # 在测试数据集上进行预测 y_pred = clf.predict(X_test) # 计算准确率 accuracy = clf.score(X_test, y_test) print("Accuracy:", accuracy) ``` 上面的代码中,我们首先使用`load_iris()`函数加载了Iris数据集,然后使用`train_test_split()`函数将数据集分成训练数据集和测试数据集。接着,我们创建了一个`DecisionTreeClassifier`对象作为决策树分类器,并使用训练数据集来训练模型。最后,我们在测试数据集上进行了预测,并计算了模型的准确率。 需要注意的是,在实际应用中,我们通常需要对训练数据集进行一些预处理工作,比如特征选择、特征缩放等。 决策树的优点在于它们易于理解和解释,可以处理离散和连续特征,适用于多类别问题,且能够自动进行特征选择。但是,决策树也有一些缺点,比如容易过拟合、对噪声敏感等。在实际应用中,我们通常需要结合其他方法来提高模型的性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值