sklearn学习笔记(7)——决策树、随机森林

认识决策树

决策树思想的来源非常朴素,程序设计中的条件分支结构就是if-then结构,最早的决策树就是利用这类结构分割数据的一种分类学习方法。

信息熵,在1948年由克劳德·艾尔伍德·香农提出,解决对信息的量化度量问题

信息增益,特征A对训练数据集D的信息增益g(D,A),定义为集合D的信息熵H(D)与特征A给定条件下的D的信息条件熵H(D|A)之差,即公式为:

注:信息增益表示得知特征X的信息而使得类Y的信息的不确定性减少的程度

 

常见决策树使用的算法

ID3       信息增益  最大的准则

C4.5     信息增益比  最大的准则

DART   回归树:平方差误差 最小;分类树:基尼系数  最小的准则,在sklearn中可以选择划分的默认原则

 

sklearn决策树API:sklearn.tree.DecisionTreeClassifier

 

sklearn决策树结构、本地保存API:sklearn.tree.export_graphviz

sklearn.tree.export_graphviz(estimator,out_file="tree.dot",feature_names=[","]),该函数能够导出DOT格式

 

grapthviz ,能够将dot文件转换为pdf、png的工具

安装grapthviz,ubuntu: sudo apt-get install grapthviz      Mac: brew install grapthviz

运行命令:dot -Tpng tree.dot -o tree.png

 

决策树的优缺点以及改进

优点:

简单的理解和解释,树木可视化

需要很少的数据准备,其他技术通常需要数据归一化

缺点:

决策树学习者可以创建不能很好的推广数据过于复杂的树,这被称为过拟合。

改进:

减枝cart算法(决策树API当中已经实现,随机森林参数调优有相关介绍)

随机森林

注:企业重要决策,由于决策树很好的分析能力,在决策过程中应用较多。


随机森林

定义:在机器学习中,随机森里是一个包含多个决策树的分类器,并且其输出的类别是有个别树输出的类别的众数而定。

 

sklearn随机森林API:sklearn.ensemble.RandomForestClassifier

 

随机森林的优点

在当前所有算法中,具有极好的准确率

能够有效的运行在大数据集上

能够处理具有高维特征的输入样本,而且不需要降维

能够评估各个特征在分类问题上的重要性


 

# -*- coding: utf-8 -*-

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.feature_extraction import DictVectorizer
from sklearn.tree import DecisionTreeClassifier, export_graphviz
from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import GridSearchCV


def decision_ex():
    """
    决策树进行泰坦尼克号生存预测
    :return: None
    """
    # 获取数据,从中筛选一些特征,目标值作为分析的数据
    titan = pd.read_csv("http://biostat.mc.vanderbilt.edu/wiki/pub/Main/DataSets/titanic.txt")

    x = titan[["pclass", "age", "sex"]]
    y = titan["survived"]

    # age存在缺失值,需要进行处理
    x["age"].fillna(x["age"].mean(), inplace=True)

    # 划分训练集、测试集
    x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.25)

    # 进行字典特抽取,针对特征当中有一些类别的值
    data_dict = DictVectorizer(sparse=False)

    x_train = data_dict.fit_transform(x_train.to_dict(orient="records"))
    x_test = data_dict.fit_transform(x_test.to_dict(orient="records"))

    print(data_dict.get_feature_names())

    """决策树预测"""
    # dec = DecisionTreeClassifier(max_depth=5)
    # dec.fit(x_train, y_train)
    # print("准确率:", dec.score(x_test, y_test))
    #
    # # 导出树的结构
    # export_graphviz(dec, out_file="./tree.dot", feature_names=data_dict.get_feature_names()  )
    # print("导出树结构成功!")

    """随即森林预测"""
    rf = RandomForestClassifier()
    # 构造参数字典
    param = {
        "n_estimators": [120, 200, 300, 500, 800, 1200],
        "max_depth": [5, 8, 15, 25, 30]
    }
    gc = GridSearchCV(rf, param_grid=param, cv=2)
    gc.fit(x_train, y_train)

    print("准确率:", gc.score(x_test, y_test))
    print("选择的参数组合为:", gc.best_params_)


if __name__ == "__main__":
    decision_ex()

 

 

 

 

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

卞亚超

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值