推荐 :决策树VS随机森林--应该使用哪种算法?(附代码&链接)

作者:Abhishek Sharma  翻译:陈超   校对:丁楠雅

本文长度为4600字,建议阅读20分钟

本文以银行贷款数据为案例,对是否批准顾客贷款申请的决策过程进行了算法构建,并对比了决策树与随机森林两种机器学习算法之间的异同及各自的优劣。

用一个简单的比喻来解释决策树 vs 随机森林

让我们从一个思维实验来阐述决策树和随机森林之间的差异。

假设一个银行要给一位顾客批准一笔小额贷款,银行需要迅速做出决策。银行检查了这位顾客的信用记录和他的财政状况,并发现他还没有还上之前的贷款。因此,银行拒绝了他的申请。

但是,这笔贷款跟银行所拥有的巨额资金相比实在是小的可怜,银行本可以轻易地批准这笔贷款并且也不会承担很多风险。于是,银行失去了一次赚钱的机会。

现在,银行又来了一个贷款申请,但是这次银行想出了一种不同的策略——多重决策过程。有时它会先检查信用历史,有时它会先检查顾客的财政状况和贷款额度。然后,银行会把这些多重决策过程的结果进行整合,并最终决定是否将贷款发放给顾客。

即使这个过程比之前更费时,但是银行依然能够通过此途径获利。这是一个基于单一决策过程进行集合决策的经典案例。现在,我的问题来了——你知道这两个过程表征的是什么吗?

这里是决策树和随机森林,我们将详细探究这种观点,深入挖掘两种方法的主要差异,并且对关键问题进行回复——你应该选择那种机器学习算法?

目录

  • 决策树简介

  • 随机森林概览

  • 随机森林和决策树的冲突(代码)

  • 为什么随机森林优于决策树?

  • 决策树vs随机森林——你应该在何时选择何种算法?

决策树简介

决策树是一种有监督的机器学习算法,该方法可以用于解决分类和回归问题。决策树可以简单地理解为达到某一特定结果的一系列决策。这里是一幅决策树的阐述图(使用我们上面的案例):

让我们来理解这棵树是如何工作的。

首先,它检查了顾客是否有良好的信用历史。基于此,它将顾客分为两组,也就是良好信用组和不良信用组。然后,它检查了顾客的收入,并再次将顾客分为两类。最后,它检查了顾客申请的贷款额度。基于这三种特征的检测,决策树会决定是否通过顾客的贷款申请。

特征/属性和调节可能会随着数据和问题复杂度的改变而改变,但是整体的理念是一致的。所以,一棵决策树会基于一系列特征做出一系列的决策,在本例中是信用历史、收入和贷款额度。

现在,你可能会疑惑:

“为什么决策树会先检测信用得分而不是收入呢?”

特征重要性和特质的检测顺序是基于如基尼不纯度指数或信息增益等标准来决定的。这些概念的解释不在本文所探讨的范围内,但是你可以通过以下的资料来学习决策树相关知识:

  • 基于树的算法:从零开始的完整教程(R & Python)

https://www.analyticsvidhya.com/blog/2016/04/tree-based-algorithms-complete-tutorial-scratch-in-python/?utm_source=blog&utm_medium=decision-tree-vs-random-forest-algorithm

  • 从决策树开始(免费课程)

https://courses.analyticsvidhya.com/courses/getting-started-with-decision-trees?utm_source=blog&utm_medium=decision-tree-vs-random-forest-algorithm

注:本文的想法是比较决策树和随机森林。因此,我不会详细解释基本概念,但是我将提供相关链接以便于你可以进一步探究。

 

随机森林概览

决策树算法很容易理解和解释。但是通常来说,一棵简单的树并不能产生有效的结果。这就是随机森林算法的用武之地。

随机森林是基于树的机器学习算法,该算法利用了多棵决策树的力量来进行决策。顾名思义,它是由一片树木组成的“森林”!

但是为什么要称其为“随机森林”呢?这是因为它是随机创造的决策树组成的森林。决策树中的每一个节点是特征的一个随机子集,用于计算输出。随机森林将单个决策树的输出整合起来生成最后的输出结果。

简单来说:

“随机森林算法用多棵(随机生成的)决策树来生成最后的输出结果。”

这种结合了多个单一模型的输出(也被称为弱学习)的过程被称为集成学习。如果你想阅读更多关于随机森林和其他集成学习算法如何工作,请查阅一下文章:

  • 从零开始构建一个随机森林&理解真实世界的数据产品

https://www.analyticsvidhya.com/blog/2018/12/building-a-random-forest-from-scratch-understanding-real-world-data-products-ml-for-programmers-part-3/?utm_source=blog&utm_medium=decision-tree-vs-random-forest-algorithm

  • 随机森林超参数调优——一个初学者的指南

https://www.analyticsvidhya.com/blog/2020/03/beginners-guide-random-forest-hyperparameter-tuning/?utm_source=blog&utm_medium=decision-tree-vs-random-forest-algorithm

  • 集成学习的综合指南(使用Python代码)

https://www.analyticsvidhya.com/blog/2018/06/comprehensive-guide-for-ensemble-models/?utm_source=blog&utm_medium=decision-tree-vs-random-forest-algorithm

  • 如何在机器学习中建立集成模型?( R代码)

https://www.analyticsvidhya.com/blog/2017/02/introduction-to-ensembling-along-with-implementation-in-r/?utm_source=blog&utm_medium=decision-tree-vs-random-forest-algorithm

现在的问题是,我们怎样选择决策树和随机森林算法呢?让我们在做出结论之前,先看看过两种算法的具体情况。

随机森林和决策树的冲突(代码)

本部分,我们将使用Python实现决策树和随机森林算法来解决一道二分类问题。我们接下来将会比较它们的结果并看一看那种更适合解决我们的问题。

 

我们将基于Analytics Vidhya’s DataHack(https://datahack.analyticsvidhya.com/contest/practice-problem-loan-prediction-iii/?utm_source=blog&utm_medium=decision-tree-vs-random-forest-algorithm)平台的贷款预测数据集进行分析。这是一个二分类问题,我们需要基于特定的特征集来决定一个人是否可被批准获得贷款。

注:你可以去DataHack(https://datahack.analyticsvidhya.com/contest/all/?utm_source=blog&utm_medium=decision-tree-vs-random-forest-algorithm )平台并在不同在线机器学习竞赛中与他人竞争,并且有机会获得令人兴奋的奖品。

 

准备好编程了吗?

第一步:加载库和数据集

让我们从导入所需的Python库和我们的数据集开始:

数据库包括614列和13个特征,包括信用历史(credit history),婚姻状况(marital status),贷款额度(loan amount),和性别(gender)。在这里,目标变量是是否贷款(Loan_Status),该变量表明是否一个人能够被批准获得贷款。

第二步:数据预处理

现在到了任何数据科学项目中最为关键的部分——数据预处理和特征工程。本部分中,我将处理数据中的类别变量以及缺失值插补。

我将使用特定的模式对类别变量中的缺失值进行插补,并且对连续型变量用平均值插补(每列分别插补)。我们也将对类别变量进行标签设置。你可以阅读以下文章来了解更多关于标签编码的内容。

https://www.analyticsvidhya.com/blog/2016/07/practical-guide-data-preprocessing-python-scikit-learn/?utm_source=blog&utm_medium=decision-tree-vs-random-forest-algorithm

# Data Preprocessing and null values imputation


# Label Encoding


df['Gender']=df['Gender'].map({'Male':1,'Female':0})


df['Married']=df['Married'].map({'Yes':1,'No':0})


df['Education']=df['Education'].map({'Graduate':1,'Not Graduate':0})


df['Dependents'].replace('3+',3,inplace=True)


df['Self_Employed']=df['Self_Employed'].map({'Yes':1,'No':0})


df['Property_Area']=df['Property_Area'].map({'Semiurban':1,'Urban':2,'Rural':3})


df['Loan_Status']=df['Loan_Status'].map({'Y':1,'N':0})


#Null Value Imputation


rev_null=['Gender','Married','Dependents','Self_Employed','Credit_History','LoanAmount','Loan_Amount_Term']


df[rev_null]=df[rev_null].replace({np.nan:df['Gender'].mode(),


                                   np.nan:df['Married'].mode(),


                                   np.nan:df['Dependents'].mode(),


                                   np.nan:df['Self_Employed'].mode(),


                                   np.nan:df['Credit_History'].mode(),


                                   np.nan:df['LoanAmount'].mean(),


                                   np.nan:df['Loan_Amount_Term'].mean()})
rfc_vs_dt-2.py hosted with ❤ by GitHub

第三步:创造训练集和测试集

现在,让我们以80:20的比例进行训练集和测试集的划分:

X=df.drop(columns=['Loan_ID','Loan_Status']).values


Y=df['Loan_Status'].values


X_train, X_test, Y_train, Y_test = train_test_split(X, Y, test_size = 0.2, random_state = 42)
rfc_vs_dt-3.py hosted with ❤ by GitHub

让我们一眼所划分的训练集和测试集:

print('Shape of X_train=>',X_train.shape)


print('Shape of X_test=>',X_test.shape)


print('Shape of Y_train=>',Y_train.shape)


print('Shape of Y_test=>',Y_test.shape)
rfc_vs_dt-4.py hosted with ❤ by GitHub

真棒!现在我们已经准备好进入下一个阶段构建决策树和随机森林模型了!

第四步:构建和评估模型

既然我们已经有了训练和测试集,是时候训练模型和分类贷款申请了。首先,我们将在数据机上进行决策树的训练:

# Building Decision Tree


from sklearn.tree import DecisionTreeClassifier


dt = DecisionTreeClassifier(criterion = 'entropy', random_state = 42)


dt.fit(X_train, Y_train)


dt_pred_train = dt.predict(X_train)
rfc_vs_dt-5.py hosted with ❤ by GitHub

接下来,我们将使用F1-Score对模型进行评估。F1-Score是由公式给出的精度和召回的调和平均数:

你可以通过以下文章来了解更多关于F1-Score和其他的评估方法:

https://www.analyticsvidhya.com/blog/2019/08/11-important-model-evaluation-error-metrics/?utm_source=blog&utm_medium=decision-tree-vs-random-forest-algorithm

让我们来评价F1-Score模型的表现:

# Evaluation on Training set


dt_pred_train = dt.predict(X_train)


print('Training Set Evaluation F1-Score=>',f1_score(Y_train,dt_pred_train))
rfc_vs_dt-6.py hosted with ❤ by GitHub
# Evaluating on Test set


dt_pred_test = dt.predict(X_test)


print('Testing Set Evaluation F1-Score=>',f1_score(Y_test,dt_pred_test))
rfc_vs_dt-7.py hosted with ❤ by GitHub

在这里,你可以看到决策树在样本内估计的表现非常好,但是在样本外估计的表现迅速下降。为什么会出现这种情况呢?因为我们的决策树在训练集上产生了过拟合。随机森林能否解决这一问题?

建立随机森林模型

让我们来看一下随机森林模型:

在这里,我们可以清楚地看到在样本外估计当中,随机森林模型比决策树的表现更优。让我们在接下来的一部分当中来讨论一下背后的原因。

 # Building  Random Forest Classifier


from sklearn.ensemble import RandomForestClassifier


rfc = RandomForestClassifier(criterion = 'entropy', random_state = 42)


rfc.fit(X_train, Y_train)
# Evaluating on Training set


rfc_pred_train = rfc.predict(X_train)


print('Training Set Evaluation F1-Score=>',f1_score(Y_train,rfc_pred_train))
rfc_vs_dt-8.py hosted with ❤ by GitHub
f1 score random forest
# Evaluating on Test set


rfc_pred_test = rfc.predict(X_test)


print('Testing Set Evaluation F1-Score=>',f1_score(Y_test,rfc_pred_test))
rfc_vs_dt-9.py hosted with ❤ by GitHub

为什么我们的随机森林模型比决策树表现更好?

随机森林利用了多棵决策树的优势。它的确不依赖于单一决策树的特征重要性。让我们来看一看不同算法给予不同特征的特征重要性。

feature_importance=pd.DataFrame({


    'rfc':rfc.feature_importances_,


    'dt':dt.feature_importances_


},index=df.drop(columns=['Loan_ID','Loan_Status']).columns)


feature_importance.sort_values(by='rfc',ascending=True,inplace=True)
index = np.arange(len(feature_importance))


fig, ax = plt.subplots(figsize=(18,8))


rfc_feature=ax.barh(index,feature_importance['rfc'],0.4,color='purple',label='Random Forest')


dt_feature=ax.barh(index+0.4,feature_importance['dt'],0.4,color='lightgreen',label='Decision Tree')


ax.set(yticks=index+0.4,yticklabels=feature_importance.index)
ax.legend()


plt.show()
rfc_vs_dt-10.py hosted with ❤ by GitHub

正如你在上图所见,决策树模型基于某一个特征集很高的重要性。但是随机森林算法在训练过程中随机选择特征。因此,的确不依赖于任何特定的特征集。这是随机森林算法优于bagging算法的一个特殊之处。你可以阅读以下文章获取更多bagging算法知识。

https://scikit-learn.org/stable/modules/generated/sklearn.ensemble.BaggingClassifier.html#sklearn.ensemble.BaggingClassifier 

因此,随机森林可以更好地在数据中心进行泛化。随机化特征选择可以使得随机森林比决策树更准确。

所以你应该选择哪一种算法呢——决策树还是随机森林?

“随机森林适用于拥有大型数据集的情况,并且可解释性不是主要考虑因素。”

决策树更容易解释和理解。因为随机森林整合了多棵决策树,更难以解释。但是好消息是——解释随机森林也并非不可能。这里有一篇文章讲了如何解释随机森林模型的结果:

https://www.analyticsvidhya.com/blog/2019/08/decoding-black-box-step-by-step-guide-interpretable-machine-learning-models-python/?utm_source=blog&utm_medium=decision-tree-vs-random-forest-algorithm

 

并且,随机森林比起单一决策树需要更长的训练时间。你应该把此纳入考虑,因为随着决策树数量的增加,所需要的训练时间也会越长。在你面临着紧张的机器学习项目安排过程中这可能通常是至关重要的。

但是我要说的是——尽管结果不稳定,且依赖于特定的特征集,决策树真的很有帮助,因为他们更容易去解释、训练更快。任何对数据科学缺乏知识的人都可以使用决策树进行快速的数据驱动决策。

写在最后的话

了解决策树和随机森林之争是非常有必要的。在你初入机器学习领域时,这可能是一个很棘手的问题,但是本文能够为你阐明两者之间的异同。

原文标题:

Decision Tree vs. Random Forest – Which Algorithm Should you Use?

原文链接:

https://www.analyticsvidhya.com/blog/2020/05/decision-tree-vs-random-forest-algorithm/

本文转自:数据派THU ;获授权;

END

合作请加QQ:365242293  

数据分析(ID : ecshujufenxi )互联网科技与数据圈自己的微信,也是WeMedia自媒体联盟成员之一,WeMedia联盟覆盖5000万人群。

  • 1
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值