分 训练集合测试集合 7:3
xtrain,xtest,ytrain,ytext = model_selection.train_test_split(x,y1,test_size=0.3,random_state=1);
5.交叉验证 用训练集 进行交叉训练 看看不进行调参的 score为多少
RF_clf = RandomForestClassifier();
cv_score = model_selection.cross_val_score(RF_clf,xtrain,ytrain,scoring=‘accuracy’,cv=10); #scoring=‘accuracy’ 正确率
print(“cv_score”,cv_score);
print(“cv_score_mean”,cv_score.mean()); #mean()平均值
输出
此时 什么参数都没有调 平均的score已经达到0.7998
6.调参
我们首先调n_estimators
默认的n_estimators值是100,
我们让n_estimators从50开始 每次加10 最高到300 运行看平均score有什么变化
n_estimators_score = [];
for n in np.arange(50,300,10):
RF_clf = RandomForestClassifier(n_estimators=n);
cv_score = model_selection.cross_val_score(RF_clf, xtrain, ytrain,