Random Forest

随机森林

决策树集成学习有一定了解的基础上,再进一步理解随机森林采取的策略:样本数据、特征进行采样,训练的多棵决策树进行集成

基本概念

来自百度百科

根据下列算法而建造每棵树

  • 用N来表示训练用例(样本)的个数,M表示特征数目。
  • 输入特征数目m,用于确定决策树上一个节点的决策结果;其中m应远小于M。
  • 从N个训练用例(样本)中以有放回抽样的方式,取样N次,形成一个训练集(即bootstrap取样),并用未抽到的用例(样本)作预测,评估其误差。
  • 对于每一个节点,随机选择m个特征,决策树上每个节点的决定都是基于这些特征确定的。根据这m个特征,计算其最佳的分裂方式。
  • 每棵树都会完整成长而不会剪枝,这有可能在建完一棵正常树状分类器后会被采用)。

相关概念

  • 分裂:在决策树的训练过程中,需要一次次的将训练数据集分裂成两个子数据集,这个过程就叫做分裂。
  • 特征:在分类问题中,输入到分类器中的数据叫做特征。以上面的股票涨跌预测问题为例,特征就是前一天的交易量和收盘价。
  • 待选特征:在决策树的构建过程中,需要按照一定的次序从全部的特征中选取特征。待选特征就是在步骤之前还没有被选择的特征的集合。例如,全部的特征是 ABCDE,第一步的时候,待选特征就是ABCDE,第一步选择了C,那么第二步的时候,待选特征就是ABDE。
  • 分裂特征:接待选特征的定义,每一次选取的特征就是分裂特征,例如,在上面的例子中,第一步的分裂特征就是C。因为选出的这些特征将数据集分成了一个个不相交的部分,所以叫它们分裂特征。

数据的随机选取

首先,从原始的数据集中采取有放回的抽样,构造子数据集,子数据集的数据量是和原始数据集相同的。不同子数据集的元素可以重复,同一个子数据集中的元素也可以重复。第二,利用子数据集来构建子决策树,将这个数据放到每个子决策树中,每个子决策树输出一个结果。最后,如果有了新的数据需要通过随机森林得到分类结果,就可以通过对子决策树的判断结果的投票,得到随机森林的输出结果了。如下图,假设随机森林中有3棵子决策树,2棵子树的分类结果是A类,1棵子树的分类结果是B类,那么随机森林的分类结果就是A类。

rf1

若训练集D有n个样本,有放回的进行n次随机采样,那么得到子集D1总共也是n个样本,但是D1中样本是有重复的。通过计算
lim ⁡ n → + ∞ ( 1 − 1 n ) = 1 e ≈ 0.368 \lim_{n \to +\infty} (1-\frac{1}{n})=\frac{1}{e} \approx 0.368 n+lim(1n1)=e10.368可知采用有放回的采样,训练集D中大约63.2%的样本出现在子集D1中,而剩下的36.8%是不出现在D1中. 通常那36.8%的样本作为验证集来对泛化性能进行”包外估计”(out-of-bag estimate)。

待选特征的随机选取

与数据集的随机选取类似,随机森林中的子树的每一个分裂过程并未用到所有的待选特征,而是从所有的待选特征中随机选取一定的特征,之后再在随机选取的特征中选取最优的特征。这样能够使得随机森林中的决策树都能够彼此不同,提升系统的多样性,从而提升分类性能。
下图中,蓝色的方块代表所有可以被选择的特征,也就是待选特征。黄色的方块是分裂特征。左边是一棵决策树的特征选取过程,通过在待选特征中选取最优的分裂特征(别忘了前文提到的ID3算法,C4.5算法,CART算法等等),完成分裂。下面是一个随机森林中的子树的特征选取过程。

若总特征数为m,每一次训练选取的特征数k,通常推荐值 k = log ⁡ 2 m k=\log_2m k=log2m 。简而言之,就是从m个特征中随机挑选k个特征用于最有划分.

rf2

样本随机选取与特征的随机选取参见:【机器学习-西瓜书】八、Bagging;随机森林(RF)

import warnings
import pandas as pd
import numpy as np
import scipy
import seaborn as sns
import xgboost as xgb
import tensorflow as tf
import matplotlib.pyplot as plt

from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import GridSearchCV
from sklearn.model_selection import cross_val_score

# from sklearn.utils import class_weight
# from sklearn.model_selection import GridSearchCV
from sklearn.model_selection import train_test_split
# from sklearn.metrics import roc_auc_score,precision_recall_curve

pd.set_option('display.max_columns',1000)
pd.set_option('display.max_rows',1000)
pd.set_option('display.width',100)

#忽略一些版本不兼容等警告
warnings.filterwarnings("ignore")
clf = RandomForestClassifier(n_estimators=10, criterion='gini', max_depth=None, min_samples_split=2, 
                          min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='auto', 
                          max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, 
                          bootstrap=True, oob_score=True, n_jobs=1, random_state=None, verbose=0,
                          warm_start=False, class_weight=None)

转载自:sklearn随机森林分类类RandomForestClassifier

sklearn.ensemble.RandomForestClassifier参数

  • n_estimators : integer, optional (default=10) 整数,可选择(默认值为10), 森林里(决策)树的数目。
  • criterion : string, optional (default=”gini”) 字符串,可选择(默认值为“gini”),衡量分裂质量的性能(函数)。 受支持的标准是基尼不纯度的"gini",和信息增益的"entropy"(熵)。
  • max_features : int, float, string or None, optional (default=”auto”) 整数,浮点数,字符串或者无值,可选的(默认值为"auto")

寻找最佳分割时需要考虑的特征数目:

  • 如果是int,就要考虑每一次分割处的max_feature特征
  • 如果是float,那么max_features就是一个百分比,那么(max_feature*n_features)特征整数值是在每个分割处考虑的。
  • 如果是auto,那么max_features=sqrt(n_features),即n_features的平方根值。
  • 如果是log2,那么max_features=log2(n_features)
  • 如果是None,那么max_features=n_features
  • 注意:寻找分割点不会停止,直到找到最少一个有效的节点划分区,即使它需要有效检查超过max_features的特征。
  • max_depth : integer or None, optional (default=None) 整数或者无值,可选的(默认为None),(决策)树的最大深度。如果值为None,那么会扩展节点,直到所有的叶子是纯净的,或者直到所有叶子包含少于min_sample_split的样本。
  • min_samples_split : int, float, optional (default=2) 整数,浮点数,可选的(默认值为2)

分割内部节点所需要的最小样本数量:

  • 如果为int,那么考虑min_samples_split作为最小的数字。
  • 如果为float,那么min_samples_split是一个百分比,并且把ceil(min_samples_split*n_samples)是每一个分割最小的样本数量。
  • min_samples_leaf : int, float, optional (default=1) 整数,浮点数,可选的(默认值为1)

需要在叶子结点上的最小样本数量:

  • 如果为int,那么考虑min_samples_leaf作为最小的数字。
  • 如果为float,那么min_samples_leaf为一个百分比,并且ceil(min_samples_leaf*n_samples)是每一个节点的最小样本数量。
  • max_leaf_nodes : int or None, optional (default=None) 整数或者无值,可选的(默认值为None),以最优的方法使用max_leaf_nodes来生长树。最好的节点被定义为不纯度上的相对减少。如果为None,那么不限制叶子节点的数量。

  • bootstrap : boolean, optional (default=True) 布尔值,可选的(默认值为True),建立决策树时,是否使用有放回抽样。

  • oob_score : bool (default=False) bool,(默认值为False),是否使用袋外样本来估计泛化精度。

  • n_jobs : integer, optional (default=1) 整数,可选的(默认值为1),用于拟合和预测的并行运行的工作(作业)数量。如果值为-1,那么工作数量被设置为核的数量。

traindata_path = u'D:/01_Project/99_test/ML/titanic/train.csv'
testdata_path = u'D:/01_Project/99_test/ML/titanic/test.csv'
testresult_path = u'D:/01_Project/99_test/ML/titanic/gender_submission.csv'
df_train = pd.read_csv(traindata_path)
df_test = pd.read_csv(testdata_path)
df_test['Survived'] = pd.read_csv(testresult_path)['Survived']
data_original = pd.concat([df_train,df_test],sort=False)
# df_test = df_test[df_train.columns]
# display (df_train.head(5))
# data_original.drop('Name',axis=1,inplace=True)
# data_original.dropna(inplace=True)
display (data_original.head(5))
PassengerIdSurvivedPclassNameSexAgeSibSpParchTicketFareCabinEmbarked
0103Braund, Mr. Owen Harrismale22.010A/5 211717.2500NaNS
1211Cumings, Mrs. John Bradley (Florence Briggs Th...female38.010PC 1759971.2833C85C
2313Heikkinen, Miss. Lainafemale26.000STON/O2. 31012827.9250NaNS
3411Futrelle, Mrs. Jacques Heath (Lily May Peel)female35.01011380353.1000C123S
4503Allen, Mr. William Henrymale35.0003734508.0500NaNS
  • PassengerId => 乘客ID
  • Pclass => 乘客等级(1/2/3等舱位)
  • Name => 乘客姓名
  • Sex => 性别
  • Age => 年龄
  • SibSp => 堂兄弟/妹个数
  • Parch => 父母与小孩个数
  • Ticket => 船票信息
  • Fare => 票价
  • Cabin => 客舱
  • Embarked => 登船港口
data_original.info()
<class 'pandas.core.frame.DataFrame'>
Int64Index: 1309 entries, 0 to 417
Data columns (total 12 columns):
PassengerId    1309 non-null int64
Survived       1309 non-null int64
Pclass         1309 non-null int64
Name           1309 non-null object
Sex            1309 non-null object
Age            1046 non-null float64
SibSp          1309 non-null int64
Parch          1309 non-null int64
Ticket         1309 non-null object
Fare           1308 non-null float64
Cabin          295 non-null object
Embarked       1307 non-null object
dtypes: float64(2), int64(5), object(5)
memory usage: 132.9+ KB
data_original['Sex'].replace('male',0,inplace=True)   #inplace=True 原位替换
data_original['Sex'].replace('female',1,inplace=True)
data_original['Embarked'] = data_original['Embarked'].fillna(method='bfill').fillna(method='ffill')
dummies = pd.get_dummies(data_original['Embarked'],prefix='Embarked')
dummies.head()
Embarked_CEmbarked_QEmbarked_S
0001
1100
2001
3001
4001
data_original = data_original.join(dummies)
data_original.head()
PassengerIdSurvivedPclassNameSexAgeSibSpParchTicketFareCabinEmbarkedEmbarked_CEmbarked_QEmbarked_S
0103Braund, Mr. Owen Harris022.010A/5 211717.2500NaNS001
0103Braund, Mr. Owen Harris022.010A/5 211717.2500NaNS010
089203Kelly, Mr. James034.5003309117.8292NaNQ001
089203Kelly, Mr. James034.5003309117.8292NaNQ010
1211Cumings, Mrs. John Bradley (Florence Briggs Th...138.010PC 1759971.2833C85C100
data_original['Sex'].value_counts()
data_original['Embarked'].value_counts()
S    1482
C     453
Q     210
Name: Embarked, dtype: int64
print (data_original['Embarked'].unique())
feature = ['Pclass','Age','SibSp','Parch','Sex']+['Embarked_'+i for i in data_original['Embarked'].unique()]
print (feature)
for column in feature:
    data_original[column].fillna(data_original[column].mean(), inplace=True)
x_train, x_test, y_train, y_test = train_test_split(data_original[feature], data_original['Survived'], random_state=1, train_size=0.7)
# x_train, x_test, y_train, y_test = train_test_split(data_original, data_original['Survived'], random_state=1, train_size=0.7)
display(x_train.shape)
display(x_test.shape)
display(y_train.shape)
display(y_train.shape)
['S' 'Q' 'C']
['Pclass', 'Age', 'SibSp', 'Parch', 'Sex', 'Embarked_S', 'Embarked_Q', 'Embarked_C']



(1501, 8)



(644, 8)



(1501,)



(1501,)
clf.fit(x_train, y_train)
RandomForestClassifier(n_estimators=10, n_jobs=1, oob_score=True)

sklearn.ensemble.RandomForestClassifier属性

  • estimators_ : list of DecisionTreeClassifier 决策树分类器的序列,拟合的子估计器的集合。
clf.estimators_
[DecisionTreeClassifier(max_features='auto', random_state=182872322),
 DecisionTreeClassifier(max_features='auto', random_state=1171035527),
 DecisionTreeClassifier(max_features='auto', random_state=780973938),
 DecisionTreeClassifier(max_features='auto', random_state=502988050),
 DecisionTreeClassifier(max_features='auto', random_state=1634170860),
 DecisionTreeClassifier(max_features='auto', random_state=1831882455),
 DecisionTreeClassifier(max_features='auto', random_state=486933096),
 DecisionTreeClassifier(max_features='auto', random_state=1857445850),
 DecisionTreeClassifier(max_features='auto', random_state=2129950930),
 DecisionTreeClassifier(max_features='auto', random_state=920741910)]
  • classes_ : array of shape = [n_classes] or a list of such arrays 数组维度=[n_classes]的数组或者一个这样数组的序列。,或者类别标签的数组序列(多输出问题)。
clf.classes_
array([0, 1], dtype=int64)
  • n_classes_ : int or list 整数或者序列,类别的数量(单输出问题),或者一个序列,包含每一个输出的类别数量(多输出问题)
clf.n_classes_
2
  • n_features_ : int 整数,执行拟合时的特征数量。
clf.n_features_
8
  • n_outputs_ : int 整数,执行拟合时的输出数量。
clf.n_outputs_
1
  • feature_importances_ : array of shape = [n_features] 维度等于n_features的数组,特征的重要性(值越高,特征越重要)。
clf.feature_importances_
dict_importance = dict(zip(feature,clf.feature_importances_))
dict_importance
{'Pclass': 0.05877063915660126,
 'Age': 0.26358450659167454,
 'SibSp': 0.056014176142720265,
 'Parch': 0.037850335354332076,
 'Sex': 0.5642537432033268,
 'Embarked_S': 0.00668872327904938,
 'Embarked_Q': 0.007401948695715405,
 'Embarked_C': 0.0054359275765802646}
  • oob_score_ : float 浮点数
clf.oob_score_
0.8567621585609594
  • oob_decision_function_ : array of shape = [n_samples, n_classes] 维度=[n_samples,n_classes]的数组。在训练集上用袋外估计计算的决策函数。如果n_estimators很小的话,那么在有放回抽样中,一个数据点也不会被忽略是可能的。在这种情况下,oob_decision_function_ 可能包括NaN。
clf.oob_decision_function_
array([[0.9047619 , 0.0952381 ],
       [0.96428571, 0.03571429],
       [0.        , 1.        ],
       ...,
       [0.16090909, 0.83909091],
       [1.        , 0.        ],
       [1.        , 0.        ]])
# 交叉验证
scores = cross_val_score(clf, x_train, y_train)
print('交叉验证准确率为:'+str(scores.mean()))  
交叉验证准确率为:0.8667641196013289
# param_grid = [
# {'n_estimators': [3, 10, 30], 'max_features': [2, 4, 6, 8]},
# {'bootstrap': [False], 'n_estimators': [3, 10], 'max_features': [2, 3, 4]},
# ]
# clf = RandomForestClassifier()
# clf = xgb.XGBClassifier()
# grid_search = GridSearchCV(clf, param_grid, cv=5,
#                           scoring='neg_mean_squared_error')
# grid_search.fit(x_train, y_train)
# grid_search.best_params_
# grid_search.best_estimator_
def KdePlot(df,label,factor,flag=None,positive=1):
    import seaborn as sns
    import matplotlib.pyplot as plt
    
    # 设置核密度分布图
    plt.figure(figsize=(20,10))
    sns.set(style='white')
    if positive==0:
        df[factor] = np.abs(df[factor])
    else:
        pass
    if flag == 'log':
        x0 = np.log(df[df[label]==0][factor]+1)
        x1 = np.log(df[df[label]==1][factor]+1)
    else:
        x0 = df[df[label]==0][factor]
        x1 = df[df[label]==1][factor]
        
    sns.distplot(x0,
               color = 'blue',
               kde = True, # 绘制密度曲线
               hist = True, # 绘制直方图
               #rug = True, # rug图
               kde_kws = {'shade':True,'color':'green','facecolor':'green','label':'label_0'},
               rug_kws = {'color':'green','height':0.1,'alpha':0.1})
    plt.xlabel('%s'%factor,fontsize=40)
    plt.ylabel('label_0',fontsize = 30)
    plt.xticks(fontsize = 30)
    plt.yticks(fontsize = 30)
    plt.legend(loc='upper left',fontsize=30)
    
    plt.twinx()
    
    sns.distplot(x1,
               color = 'orange',
               kde = True, # 绘制密度曲线
               hist = True, # 绘制直方图
               #rug = True, # rug图
               kde_kws = {'shade':True,'color':'red','facecolor':'red','label':'label_1'},
               rug_kws = {'color':'red','height':0.1,'alpha':0.2})
#     plt.xlabel('%s'%factor,fontsize=40)
    plt.ylabel('label_1',fontsize = 30)
    plt.xticks(fontsize = 30)
    plt.yticks(fontsize = 30)
    plt.legend(loc='upper right',fontsize=30)
    plt.show()
    
    
for factor in feature:
    KdePlot(data_original,'Survived',factor)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值