集成学习(下)--1

Blending集成学习算法

Blending集成学习方式

(1) 将数据划分为训练集和测试集(test_set),其中训练集需要再次划分为训练集(train_set)和验证集(val_set);
(2) 创建第一层的多个模型,这些模型可以使同质的也可以是异质的;
(3) 使用train_set训练步骤2中的多个模型,然后用训练好的模型预测val_set和test_set得到val_predict,
test_predict1;
(4) 创建第二层的模型,使用val_predict作为训练集训练第二层的模型;
(5) 使用第二层训练好的模型对第二层测试集test_predict1进行预测,该结果为整个测试集的结果。
(1)过程中: 总的数据集被分成训练集和测试集,训练集中再拆分出训练集和验证集。训练集是为了训练模型,测试集是为了调整模型(调参),测试集则是为了检验模型的优度。
(2)(3)过程中:使用训练集创建了K个模型作为第一层的模型。训练好模型后将验证集输入模型进行预测,得到K组不同的输出,然后将测试集输入K个模型也得到K组输出。
(4)过程中:使用k组模型的验证集结果作为第二层分类器的特征,验证集的标签为因变量,训练第二层分类器。
(5)过程中:将输入测试集的样本结果放入第二层分类器,得到测试集预测结果。
##优缺点
优点:实现简单,无需其他理论分析。
缺点:只使用了一部分数据集作为留出集进行验证,浪费数据。

案例

# 加载相关工具包 
import numpy as np 
import pandas as pd 
import matplotlib.pyplot as plt 
plt.style.use("ggplot") 
import seaborn as sns

# 创建数据 
from sklearn import datasets 
from sklearn.datasets import make_blobs 
from sklearn.model_selection import train_test_split 
data, target = make_blobs(n_samples=10000, centers=2, random_state=1, cluster_std=1.0 ) 
## 创建训练集和测试集 
X_train1,X_test,y_train1,y_test = train_test_split(data, target, test_size=0.2, random_state=1) 
## 创建训练集和验证集 
X_train,X_val,y_train,y_val = train_test_split(X_train1, y_train1, test_size=0.3, random_state=1) 
print("The shape of training X:",X_train.shape) 
print("The shape of training y:",y_train.shape) 
print("The shape of test X:",X_test.shape) 
print("The shape of test y:",y_test.shape) 
print("The shape of validation X:",X_val.shape) 
print("The shape of validation y:",y_val.shape)

# 设置第一层分类器 
from sklearn.svm import SVC 
from sklearn.ensemble import RandomForestClassifier 
from sklearn.neighbors import KNeighborsClassifier 
clfs = [SVC(probability = True),RandomForestClassifier(n_estimators=5, n_jobs=-1, criterion='gini'),KNeighborsClassifier()] 
# 设置第二层分类器 
from sklearn.linear_model import LinearRegression lr = LinearRegression()
# 输出第一层的验证集结果与测试集结果 
val_features = np.zeros((X_val.shape[0],len(clfs))) # 初始化验证集结果 
test_features = np.zeros((X_test.shape[0],len(clfs))) # 初始化测试集结果 
for i,clf in enumerate(clfs): 
	clf.fit(X_train,y_train) 
	val_feature = clf.predict_proba(X_val)[:, 1] 		
	test_feature = clf.predict_proba(X_test)[:,1] 
	val_features[:,i] = val_feature 
	test_features[:,i] = test_feature

# 将第一层的验证集的结果输入第二层训练第二层分类器 
lr.fit(val_features,y_val) 
# 输出预测的结果 
from sklearn.model_selection import cross_val_score 
cross_val_score(lr,test_features,y

参考资料:

https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearning

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值