RandomForestClassifier和RandomForestRegressor
RandomForestClassifier
参数介绍
from sklearn.ensemble import RandomForestClassifier
clf = RandomForestClassifier (n_estimators='10' #基模型个数
,criterion='gini' #不存度衡量,参数有"gini","entropy"
,max_depth=None #树的最大深度
,min_samples_split=2 #结点包含最少的样本数
,min_samples_leaf=1 #叶子含有最少的样本数
,min_weight_fraction_leaf=0.0
,max_features='auto'
,max_leaf_nodes=None
,min_impurity_decrease=0.0
,min_impurity_split=None
,bootstrap=True #true表示有放回的随机抽样技术
,oob_score=False #obb_score=true表示用袋外的数据来测试,
#也就是说不用手动的划分测试集和训练集,这是因为随机抽样时会有
#37%的数据会被浪费掉(当数据比较大时),可以把这37%的数据用来测试
,n_jobs=None
,random_state=None #填任意整数,使模型稳定
,verbose=0
,warm_start=False
,class_weight=None
)
当oob_score=False时:无需划分测试集和训练集
rfc = RandomForestClassifier(n_estimators=25,oob_score=True)
rfc = rfc.fit(wine.data,wine.target) #重要属性oob_score_
rfc.oob_score_
重要属性介绍
rfc.feature_importances_
重要方法
apply, fit, predict和score
predict_proba:返回每个测试样本对应的被分到每一类标签的概率,标签有几个分类
就返回几个概率
RandomForestRegressor
参数介绍
与RandomForestClassifier不同之处:
criterion:“mse”、“friedman_mse”、"mae"三个参数可选
重要属性介绍
没有特别说明,参考决策树的回归模型
重要方法
没有特别说明,参考决策树的回归模型