【机器学习】决策树实战与分析

本文探讨了决策树在实际分类任务中的应用,通过鸢尾花数据集展示了决策树的模型构建和预测过程。还详细介绍了决策树的重要参数,如损失函数、节点划分策略和剪枝策略,并通过调整参数对比了在泰坦尼克数据集上的效果,揭示了参数选择对模型性能的影响。
摘要由CSDN通过智能技术生成


本文属于我的机器学习/深度学习系列文章,点此查看系列文章目录

前言

之前学习决策树的时候写过一篇关于决策树原理的文章,包含决策树的基本概念ID3,C4.5,cart算法和决策树的代码实现等,具体见决策树:ID3&C4.5&cart算法(从原理到实现-小白教程超详细)

本文重点将放在对于决策树的实际应用上(对实际数据做分类)和如何提升决策树的性能(参数选择),在此基础上运用随机森林,对比两者的使用效果,总结经验。

一、决策树的分类思想

前面的链接对于决策树的具体原理已经有了充分的说明和样例了,这里简单总结用决策树做分类时的思想。

二、决策树使用Demo

一个简单使用sklearn决策树的例子,主要步骤包含:

2.1 导入必要库

import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns

from sklearn.tree import DecisionTreeClassifier
from sklearn import tree
import graphviz  # 用于可视化决策树

2.2 创建样本数据点和可视化

X = np.array([[-1, -2], [-2, -1], [-3, -2], [1, 3], [2, 1], [3, 2]])
y = np.array([0, 1, 0, 1, 0, 1])

# 可视化样本数据点

fig = plt.figure(figsize=(6,5))
plt.scatter(X[:,0],X[:,1],c=y,s=50,cmap='viridis')
plt.show()

在这里插入图片描述

2.3 创建决策树实例,训练模型并可视化决策树

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值