机器学习——随机森林算法、极端随机树和单颗决策树分类器对手写数字数据进行对比分析

系列文章目录

机器学习集成学习——Adaboost分离器算法

 机器学习之SVM分类器介绍——核函数、SVM分类器的使用_基于svm的分类器

机器学习神经网络——GBDT(Gradient Boosting Decision Tree 梯度提升决策树)算法_

机器学习的一些常见算法介绍【线性回归,岭回归,套索回归,弹性网络】

文章目录

一、决策树

二、随机森林

2.1、随机森林简介

2.2、具体案例

三、极端随机树

3.1、极端随机数简介

3.2、具体案例实例

四、单颗决策树分类器

4.1、单颗决策树分类器简介

4.2、具体案例实例

五、综合实例

总结


前言

本文主要介绍随机森林算法、极端随机树和单颗决策树分类器三种算法的使用讲解,以及使用这三种算法对手写数字数据进行对比分析

一、决策树

  • 决策树是机器学习中常用到的一种分类与回归方法,由节点和有向边组成,目的是通过每次分类将整个特征空间进行划分,这样就可以得到不同的分类样本。
  • 决策树算法中涉及到了特征的选择,决策树的生成和剪枝。不同的决策树学习算法生成过程是相同的。决策树的剪枝就是为了防止过拟合。
  • 例如ID3算法是在各个节点上选择信息增益最大的特征进行分裂并构建决策树,当然这样的问题是会选择取值较多的特征。
  • 例如CART可以用来分类和回归。当它用作回归树时,则利用平方误差最小化作为选择特征的准则,当它用作分类树时,则利用基尼指数最小化原则选择特征。

二、随机森林

2.1、随机森林简介

  •  随机森林也是基于决策树的算法,只不过是利用集成的思想来提升单颗决策树的分类性能。主要特点是由于随机选择样本和特征,所以不容易陷入过拟合。
  • 随机森林算法的主要步骤
  • 从样本集中用Bootstrap随机选取n个样本,并从所有属性中随机选取K个属性,选择最佳分割属性作为节点建立分类器(CART,SVM等)
  • 重复以上m次,即建立了m个分类器,并通过投票表决结果,决定数据属于哪一类。

随机森林是一种集成学习算法,它将许多决策树组合在一起来提高分类性能。随机森林的基本思想是通过随机抽样和随机特征选择来构建多个决策树,然后将这些决策树的预测结果进行投票,最终确定分类结果。

2.2、具体案例

下面是一个使用随机森林算法来分类鸢尾花数据集的Python代码:

from sklearn.datasets import load_iris
from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import train_test_split

# 加载数据
iris = load_iris()
X = iris.data
y = iris.target

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2)

# 构建随机森林模型
clf = RandomForestClassifier(n_estimators=100, max_depth=2, random_state=0)

# 拟合模型
clf.fit(X_train, y_train)

# 预测测试集
y_pred = clf.predict(X_test)

# 输出准确率
print("Accuracy:", clf.score(X_test, y_test))

三、极端随机树

3.1、极端随机数简介

极端随机树(Extra Trees)是一种决策树算法,它和随机森林类似,同样采用随机抽样和随机特征选择的方法构建多个决策树。不同的是,极端随机树在分裂节点时,会随机选择特征的划分点,而不是像决策树和随机森林那样使用最优的划分点。这样可以减少模型的方差,提高模型的鲁棒性。

3.2、具体案例实例

下面是一个使用极端随机树算法来分类鸢尾花数据集的Python代码:

from sklearn.datasets import load_iris
from sklearn.ensemble import ExtraTreesClassifier
from sklearn.model_selection import train_test_split

# 加载数据
iris = load_iris()
X = iris.data
y = iris.target

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2)

# 构建极端随机树模型
clf = ExtraTreesClassifier(n_estimators=100, max_depth=2, random_state=0)

# 拟合模型
clf.fit(X_train, y_train)

# 预测测试集
y_pred = clf.predict(X_test)

# 输出准确率
print("Accuracy:", clf.score(X_test, y_test))

四、单颗决策树分类器

4.1、单颗决策树分类器简介

单颗决策树分类器是一种基本的分类算法,它将数据集划分为多个子集,每个子集对应一个决策节点,直到叶子节点为止。在分类时,根据测试样本的特征值,沿着决策树从根节点到叶子节点依次做出决策,最终得到分类结果。单颗决策树分类器容易过拟合,因此通常需要采用集成学习算法来提高分类性能。

4.2、具体案例实例

下面是一个使用单颗决策树分类器来分类鸢尾花数据集的Python代码:

from sklearn.datasets import load_iris
from sklearn.tree import DecisionTreeClassifier
from sklearn.model_selection import train_test_split

# 加载数据
iris = load_iris()
X = iris.data
y = iris.target

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2)

# 构建单颗决策树分类器模型
clf = DecisionTreeClassifier(max_depth=2, random_state=0)

# 拟合模型
clf.fit(X_train, y_train)

# 预测测试集
y_pred = clf.predict(X_test)

# 输出准确率
print("Accuracy:", clf.score(X_test, y_test))

五、综合实例

使用随机森林算法、极端随机树和单颗决策树分类器对手写数字数据进行对比分析

#使用随机森林算法、极端随机树和单颗决策树分类器对手写数字数据进行对比分析
import matplotlib.pyplot as plt
plt.rcParams['font.sans-serif']=['SimHei']#解决图形中的中文显示乱码
plt.matplotlib.rcParams['axes.unicode_minus']=False 
#导入sklearn内置数据集 
from sklearn.datasets import load_digits
#导入手写数字数据
digits = load_digits()
#以图片形式显示前100号手写数字
import matplotlib.pyplot as plt
plt.figure(1, figsize=(2.5,2.5),facecolor='white') 
for i in range(10): 
    for j in range(10):
        ax= plt.subplot(10,10,10*i+j+1)
        #设置子图的位置
        ax.set_xticks([])#隐藏横坐标
        ax.set_yticks([])#隐藏纵坐标
        plt.imshow(digits.images[9*i+j],cmap=plt.cm.gray_r,interpolation="nearest")
plt.show()
#导入sklearn中的模型验证类 
from sklearn.model_selection import train_test_split
#使用train test_split函数自动分割训练数据集和测试数据集
x_train,x_test,y_train,y_test = train_test_split(digits.data,digits.target,test_size=0.3)
#导入sklearn模块中的决策树分类器类 
from sklearn.tree import DecisionTreeClassifier
#导入sklearn模块中的随机森林分类器类 
from sklearn.ensemble import RandomForestClassifier
#导入sklearn模块中的极端随机森林分类器类 
from sklearn.ensemble import ExtraTreesClassifier
#定义一个决策树分类器对象
dtc = DecisionTreeClassifier(max_depth=7,criterion='entropy',random_state = 0)
#定义一个随机森林分类器对象
rfc = RandomForestClassifier(max_depth=7,criterion='entropy',n_estimators=99,random_state = 0)
#定义一个极端森林分类器对象
etc = ExtraTreesClassifier(max_depth=7,criterion='entropy',random_state = 0)
dtc.fit(x_train,y_train)
rfc.fit(x_train,y_train)
etc.fit(x_train,y_train)
print("决策树在训练集上的准确率:%.3f"%dtc.score(x_train,y_train))
print("决策树在测试集上的准确率:%.3f"%dtc.score(x_test,y_test))
print("随机森林(T=99)在决策树在训练集上的准确率:%.3f"%rfc.score(x_train,y_train))
print("随机森林(T=99)在测试集上的准确率:%.3f"%rfc.score(x_test,y_test))
print("极端随机树在训练集上的准确率:%.3f"%etc.score(x_train,y_train))
print("极端随机树在试集上的准确率:%.3f"%etc.score(x_test,y_test))
#观察弱分类器数量对分类准确度的影响
#弱分类器的最大值
T_max =39
rfc_train_scores=[] 
rfc_test_scores=[] 
for i in range(1,T_max+1):
    rfc = RandomForestClassifier(n_estimators=i)
    rfc.fit(x_train,y_train)
    rfc_train_scores.append(rfc.score(x_train,y_train))
    rfc_test_scores.append(rfc.score(x_test,y_test))
#绘制测试结果
plt.figure()
plt.plot(range(1,T_max+1),rfc_train_scores,color='r',label='训练集')
plt.plot(range(1,T_max+1),rfc_test_scores,color='g',label='测试集')
plt.title("随机森林基分类器数量对性能的影响")
plt.xlabel("基分类器数量")
plt.ylabel("准确率")
plt.xlim(1,T_max)
plt.grid(color='gray',linewidth = '0.5',linestyle = '--')
plt.legend()
plt.show()
#观察弱分类器数量对分类准确度的影响
#弱分类器的最大值
T_max =39
etc_train_scores=[] 
etc_test_scores=[] 
for i in range(1,T_max+1):
    etc = ExtraTreesClassifier(max_depth = 7,criterion = 'entropy',n_estimators=i)
    etc.fit(x_train,y_train)
    etc_train_scores.append(etc.score(x_train,y_train))
    etc_test_scores.append(etc.score(x_test,y_test))
#绘制测试结果
plt.figure()
plt.plot(range(1,T_max+1),etc_train_scores,color='r',label='训练集')
plt.plot(range(1,T_max+1),etc_test_scores,color='g',label='测试集')
plt.title("极端随机树基分类器数量对性能的影响")
plt.xlabel("基分类器数量")
plt.ylabel("准确率")
plt.xlim(1,T_max)
plt.grid(color='gray',linewidth = '0.5',linestyle = '--')
plt.legend()
plt.show()

总结

以上就是今天的内容~

最后欢迎大家点赞👍,收藏⭐,转发🚀,
如有问题、建议,请您在评论区留言💬哦。

  • 0
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

张小鱼༒

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值