python sklearn模型融合案例分享

heamy库的blending方法和mlxtend库的Stacking 方法

# -*- coding: utf-8 -*-
from heamy.dataset import Dataset
from heamy.estimator import Regressor, Classifier
from heamy.pipeline import ModelsPipeline
from sklearn.model_selection import KFold
from sklearn.model_selection import train_test_split
from sklearn.ensemble import RandomForestRegressor
from sklearn.linear_model import LinearRegression
from sklearn.metrics import mean_absolute_error
from sklearn.model_selection import cross_val_score
#加载数据集
from sklearn.datasets import load_boston
data = load_boston()
X, y = data['data'], data['target']
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.1, random_state=111)
#创建数据集
dataset = Dataset(X_train,y_train,X_test)
#创建RF模型和LR模型
model_rf = Regressor(dataset=dataset, estimator=RandomForestRegressor, parameters={'n_estimators': 50},name='rf')
model_lr = Regressor(dataset=dataset, estimator=LinearRegression, parameters={'normalize': True},name='lr')
# Stack两个模型
# Returns new dataset with out-of-fold predictions
pipeline = ModelsPipeline(model_rf,model_lr)
stack_ds = pipeline.stack(k=10,seed=111)
#第二层使用lr模型stack
stacker = Regressor(dataset=stack_ds, estimator=LinearRegression)
results = stacker.predict()
# 使用10折交叉验证结果
results10 = stacker.validate(k=10,scorer=mean_absolute_error)

from sklearn.metrics import explained_variance_score
from mlxtend.regressor import StackingRegressor
import numpy as np
rf = RandomForestRegressor(n_estimators=100)
lr =LinearRegression()

sclf = StackingRegressor(regressors=[rf,lr],
                         meta_regressor=lr)
n_folds = 10
kf = KFold(n_folds, shuffle=True, random_state=42).get_n_splits(X)
scores = cross_val_score(sclf,X_train,y_train,cv = kf,scoring='neg_mean_absolute_error')
print("KF:,",np.mean(scores))

scores2 = []
for i in range(10):
    x_train,  x_test, Y_train,Y_test = train_test_split(X_train, y_train,test_size=0.1)
    sclf.fit(x_train, Y_train)
    prediction = sclf.predict(X_test)
    scores2.append(mean_absolute_error(y_test, prediction))
print("for:",np.mean(scores2)) 
  • 3
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: Python中的Scikit-Learn库提供了一个快速而灵活的框架,可以轻松地构建卷积神经网络(CNN)模型。要搭建一个CNN模型,我们需要遵循以下步骤: 1.准备数据:首先,我们需要加载和处理数据集。当前常用的是数据框架格式,可用Pandas处理,但如果需要使用TensorFlow中的Keras,那么就需要使用它的内置数据加载和预处理功能,来获得更高的效率。 2.构建模型结构:在此步骤中,我们可以选择使用Keras,定义CNN模型。在论文中,也可以引用LeNet或AlexNet这样的循环卷积网络结构。 3.编译模型:在此步骤中,我们需要定义损失函数、优化器和评估指标,以便用于训练模型。 4.训练模型:在此步骤中,我们将数据集喂给模型,通过调整参数来最小化损失函数进行迭代训练。 5.评估模型:完成训练后,我们需要评估模型的性能,看看它在新数据上的表现情况。可以采用交叉验证和测试集等方法评估模型。 6.预测数据:最后,我们可以使用训练好的模型来进行预测,在新数据集上进行推断。 在构建CNN模型时,需要特别注意调整超参数和模型架构,以便获得最佳性能。同时,也要注意过拟合和欠拟合问题,并采取相应的解决方案。 ### 回答2: Python中的sklearn库提供了许多机器学习算法的实现,包括卷积神经网络(CNN)。搭建CNN模型的基本步骤如下: 1.导入sklearn库中神经网络模块: ``` from sklearn.neural_network import MLPClassifier ``` 2.准备数据: CNN是一种非常适合处理图像的神经网络,因此在搭建CNN模型之前,需要准确地处理图像数据。可以使用numpy加载图片并将其转换为多维数组。通常可以使用OpenCV或Pillow等库来加载图片数据集。 3.定义模型: 使用MLPClassifier类来定义模型。MLPClassifier是多层神经网络的分类器。在此类中,包含许多参数,例如隐层层数、每层神经元数和激活函数等。 4.训练和测试模型: 定义好模型后,使用fit()方法对模型进行训练,使用predict()方法对模型进行测试。在训练和测试时,需要传递样本和标签数据。通常会将数据分成训练集和测试集。 5.评估模型: 完成模型训练和测试后,可以使用sklearn库中的准确率(accuracy)函数,对模型进行评估。 总之,使用sklearn库中的MLPClassifier类创建CNN模型,并将数据集用于训练和测试,最后通过准确率函数对模型进行评估。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值