【MATLAB】使用随机森林在回归预测任务中进行特征选择(深度学习的数据集处理)

1.随机森林在神经网络的应用

        当使用随机森林进行特征选择时,算法能够为每个特征提供一个重要性得分,从而帮助识别对目标变量预测最具影响力的特征。这有助于简化模型并提高其泛化能力,减少过拟合的风险,并且可以加快模型训练和推理速度。通过剔除不重要的特征,模型的复杂度降低,同时保持了较高的预测准确性。

        随机森林是一种集成学习算法,利用多棵决策树对特征进行建模。由于其天然的并行化、抗过拟合的特性和对非线性关系的良好适应性,随机森林在特征选择中显示出强大的效果。此外,特征选择可以帮助理解数据,并为进一步的特征工程提供指导,有效地提高模型的预测性能。

通俗点讲就是,用科学、合理的方法去除掉数据集中不需要的特征。常用在回归预测任务的数据集处理中(也就是N个输入特征,一个输出特征)。

2.代码实现

这部分代码旨在准备 MATLAB 环境。它关闭了 MATLAB 的警告信息显示,关闭所有之前打开的图形窗口,清除了 MATLAB 工作区中的所有变量,并清空命令窗口。

warning off % 关闭警告信息显示
close all % 关闭所有图形窗口
clear % 清除工作区变量
clc % 清空命令窗口

这段代码使用 readtable 函数从名为 "01.csv" 的 CSV 文件中读取数据并将其存储在变量 data 中。如果数据文件不包含表头,则需要使用 readmatrix 函数。

data = readtable('01.csv'); % 如果数据文件不包含表头,请使用readmatrix函数

这段代码将数据拆分为特征和目标变量。其中 X 存储假设前 2000 行数据的前 6 列是特征,y 存储假设前 2000 行数据的最后一列是目标变量。

X = data{1:2000, 1:6}; % 假设前6列是特征
y = data{1:2000, 7};   % 假设最后一列是目标变量

这部分使用 TreeBagger 函数构建了一个包含 100 棵树的随机森林回归模型,并计算了袋外预测器的重要性。

ens = TreeBagger(100, X, y, 'Method', 'regression', 'OOBPredictorImportance', 'on');

在这个部分中,计算了特征的重要性得分,并将其进行了归一化处理。然后将其显示出来。

% 计算特征的重要性分数
featureImportance = ens.OOBPermutedVarDeltaError;
disp(featureImportance)
normalizedFeatureImportance = featureImportance / sum(featureImportance);
disp(normalizedFeatureImportance);

这一部分可视化了特征重要性得分,通过绘制条形图展示各个特征的重要性。

% 可视化特征重要性
bar(normalizedFeatureImportance);
xlabel('特征');
ylabel('重要性得分');
title('特征重要性');

这部分代码对特征的重要性得分进行排序,并选择了最重要的四个特征进行输出。同时,重新设置了图表的横坐标,使其显示最重要的特征名称。(笔者的数据集格式为6个输入一个输出的风力发电机功率数据集)

% 特征排序及输出
[sortedImportance, sortedIdx] = sort(normalizedFeatureImportance, 'descend');
topFeatures = sortedIdx(1:4); % 选择最重要的四个特征
topFeaturesNames = {'湿度', '真实风速', '气象台风速', '风向', '温度', '气压'};
disp('最重要的特征是:');
disp(topFeaturesNames(topFeatures));
xticks(1:length(topFeaturesNames));
xticklabels(topFeaturesNames); 

 3.运行结果

        运行结果如下(以笔者的风力发电机数据集为例):

 4.完整代码

%% 清空环境变量
warning off % 关闭警告信息显示
close all % 关闭所有图形窗口
clear % 清除工作区变量
clc % 清空命令窗口
% 读取CSV文件
data = readtable('01.csv'); % 如果数据文件不包含表头,请使用readmatrix函数

% 将数据拆分为特征和目标变量
X = data{1:2000, 1:6}; % 假设前6列是特征
y = data{1:2000, 7};   % 假设最后一列是目标变量

ens = TreeBagger(100, X, y, 'Method', 'regression', 'OOBPredictorImportance', 'on');

% 计算特征的重要性分数
featureImportance = ens.OOBPermutedVarDeltaError;
disp(featureImportance)
normalizedFeatureImportance = featureImportance / sum(featureImportance);
disp(normalizedFeatureImportance);
% 可视化特征重要性
bar(normalizedFeatureImportance);
xlabel('特征');
ylabel('重要性得分');
title('特征重要性');

% 根据得分排序特征
[sortedImportance, sortedIdx] = sort(normalizedFeatureImportance, 'descend');
topFeatures = sortedIdx(1:4); % 选择最重要的四个特征

% 输出最重要的特征
topFeaturesNames = {'湿度', '真实风速', '气象台风速', '风向', '温度', '气压'};
disp('最重要的特征是:');
disp(topFeaturesNames(topFeatures));

% 重新设置图表横坐标
xticklabels(topFeaturesNames);
  • 8
    点赞
  • 38
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 7
    评论
### 回答1: 随机森林回归是一种机器学习算法,它可以用于预测一连续变量的输出值,如房屋的价格等。在Matlab,可以使用TreeBagger函数来实现随机森林回归。 下面通过一个小例子来说明随机森林回归预测的过程: 1.读取数据集:假设我们要预测一辆车的燃油经济性能,可以使用fuel_efficiency数据集使用Matlab的readtable函数将数据导入到Matlab工作区。 2.数据预处理:对数据进行处理,包括删除不必要的列、缺失值处理等。可以使用Matlab的rmmissing函数来处理数据的缺失值。 3.拆分数据集:将数据集按照一定比例分成训练集和测试集。可以使用Matlab的cvpartition函数来实现。 4.构建随机森林模型:使用TreeBagger函数来构建随机森林模型。可以设置一些参数来控制模型的建立,例如树的数量、每棵树的深度等等。 5.模型预测:使用训练好的随机森林模型对测试集进行预测,并计算预测误差。可以使用Matlab的predict函数来实现。 6.模型评估:将预测结果与实际结果进行比较,并计算模型的性能指标,如均方误差、平均绝对误差等。可以使用Matlab的mse、mae等函数来计算模型的性能指标。 通过上述步骤,我们可以构建一个基于随机森林回归的车辆燃油经济性能预测模型,并对其进行评估。通过改变模型参数和算法选择,我们还可以进一步调整模型以获得更好的性能。 ### 回答2: 随机森林是一种集成学习的方法,它通过同时建立多棵决策树对数据进行分类或回归。Matlab也可以通过使用TreeBagger函数来实现随机森林的构建。在这里,我将以一个简单的预测例子来介绍如何使用Matlab随机森林回归模型。 首先,我们需要准备一个数据集。假设我们要预测一辆汽车的燃油效率,我们需要收集一些特征变量。在这个例子,我们选择了以下的特征:气缸数、马力、重量和加速度。我们还需要收集汽车的燃油效率作为目标变量。 我们将这些数据放入一个表。代码如下: ```matlab % create data table cyl = [4; 4; 4; 6; 6; 6; 8; 8; 8; 8; 8; 8; 8; 8]; hp = [105; 90; 95; 110; 175; 180; 105; 245; 250; 245; 400; 400; 450; 425 ]; wt = [2.32; 2.12; 2.2; 3.22; 2.77; 3.46; 3.17; 3.57; 3.75; 3.52; 3.44; 4.1; 6.9; 5.4]; acc = [15.5; 16.9; 14.9; 13.2; 11.3; 10.3; 11.2; 10; 9; 8.5; 9.5; 8; 5; 6.5]; mpg = [29; 33; 29; 23; 16; 15; 26; 14; 15; 14; 8; 6; 6; 6]; data = table(cyl,hp,wt,acc,mpg); ``` 接下来,我们需要将数据分为训练集和测试集。训练集用于构建随机森林模型,而测试集用于评估模型的预测准确度。我们可以使用cvpartition函数将数据随机分成训练集和测试集: ```matlab % split into training and testing sets cv = cvpartition(size(data,1),'HoldOut',0.3); idx = cv.test; % training data Xtrain = data{~idx,1:end-1}; Ytrain = data{~idx,end}; % testing data Xtest = data{idx,1:end-1}; Ytest = data{idx,end}; ``` 现在,我们可以通过调用TreeBagger函数来训练随机森林模型。TreeBagger函数需要指定决策树的数量和一些其他参数。这个例子,我们选择10棵树。 ```matlab % train random forest model ntrees = 10; model = TreeBagger(ntrees,Xtrain,Ytrain,'Method','Regression'); ``` 随机森林模型构建完成后,我们可以使用Xtest进行预测,并将预测结果与Ytest进行比较,以评估模型的准确性: ```matlab % test model on testing data Ypredict = predict(model,Xtest); % calculate RMSE rmse = sqrt(mean((Ytest - str2double(Ypredict)).^2)); disp(['RMSE: ' num2str(rmse)]); ``` 最后,我们可以使用模型来预测未知样本的燃油效率。下面的代码预测了一辆4缸、90马力、2.5吨重、加速度为15秒的汽车的燃油效率: ```matlab % use model to predict on new data newdata = [4, 90, 2.5, 15]; mpg_predict = predict(model,newdata); disp(['Predicted MPG: ' num2str(str2double(mpg_predict))]); ``` 以上就是一个简单的Matlab随机森林回归预测例子,希望对你有所帮助! ### 回答3: 随机森林是一种集成学习方法,它基于决策树,可以用于回归和分类问题。在matlab使用集成学习工具箱来实现随机森林。 考虑一个回归问题的例子-预测汽车的价格。我们有一些汽车的属性值,例如车龄、里程数、排量和颜色等,并且我们希望能够利用这些属性值来预测汽车的价格。我们可以使用随机森林回归模型来解决这个问题。 首先,我们需要一个数据集。我们可以使用matlab自带的数据集"carsmall",它包含了一些汽车的属性值和价格。我们可以使用下面的代码来导入数据: cars = readtable('carsmall.mat'); 接下来,我们将数据集分成训练集和测试集。我们可以使用下面的代码将数据集划分为80%的训练集和20%的测试集: cv = cvpartition(height(cars),'HoldOut',0.2); idx = cv.test; dataTrain = cars(~idx,:); dataTest = cars(idx,:); 然后,我们需要准备数据,将属性和价格从数据提取出来: XTrain = dataTrain(:,1:end-1); YTrain = dataTrain.MPG; 然后,我们可以使用fitrensemble函数来训练一个随机森林回归模型: rng(1); % For reproducibility numTrees = 100; Mdl = fitrensemble(XTrain,YTrain,'Method','LSBoost','NumLearningCycles',numTrees,... 'Learners','tree','LearnRate',0.1); 接着,我们可以使用predict函数来预测测试集汽车的价格: XTest = dataTest(:,1:end-1); YTest = dataTest.MPG; YPred = predict(Mdl,XTest); 最后,我们可以使用评估指标来评估模型的性能。我们可以使用均方误差(MSE)和决定系数(R²)作为评估指标: MSE = mean((YTest - YPred).^2); R2 = 1 - sum((YTest - YPred).^2)/sum((YTest - mean(YTest)).^2); 在这个例子,我们使用随机森林回归模型来预测汽车的价格。在实践,我们可以尝试使用不同的属性值和参数来训练模型,以找到最佳的性能。
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

编程到天明

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值