机器学习之MATLAB代码--随机森林(一)

代码:

%% 初始化数据
clc
clear
close all
%%  导入数据
data = xlsread('数据集.xlsx','Sheet1','A1:F100');%导入数据库

%%  划分训练集和测试集
TE= randperm(100);%将数据打乱,重新排序;

PN = data(TE(1: 80), 1: 5)';%划分训练集输入
TN = data(TE(1: 80), 6)';%划分训练集输出

PM = data(TE(81: end), 1: 5)';%划分测试集输入
TM = data(TE(81: end), 6)';%划分测试集输出

%%  数据归一化
[pn, ps_input] = mapminmax(PN, 0, 1);%归一化到(01)
pn=pn';
pm = mapminmax('apply', PM, ps_input);%引用结构体,保持归一化方法一致;
pm=pm';
[tn, ps_output] = mapminmax(TN, 0, 1);
tn=tn';

%%  模型参数设置及训练模型
trees = 100; % 决策树数目
leaf  = 5; % 最小叶子数
OOBPrediction = 'on';  % 打开误差图
OOBPredictorImportance = 'on'; % 计算特征重要性
Method = 'regression';  % 选择回归或分类
net = TreeBagger(trees, pn, tn, 'OOBPredictorImportance', OOBPredictorImportance,...
      'Method', Method, 'OOBPrediction', OOBPrediction, 'minleaf', leaf);
importance = net.OOBPermutedPredictorDeltaError;  % 重要性

%%  仿真测试
pyuce = predict(net, pm );

%%  数据反归一化
Pyuce = mapminmax('reverse', pyuce, ps_output);
Pyuce =Pyuce';

%%  绘图
figure %画图真实值与预测值对比图
plot(TM,'bo-')
hold on
plot(Pyuce,'r*-')
hold on
legend('真实值','预测值')
xlabel('预测样本')
ylabel('预测结果')
grid  on

figure % 绘制特征重要性图
bar(importance)
legend('各因素重要性')
xlabel('特征')
ylabel('重要性')

%%  相关指标计算
error=Pyuce-TM;
[~,len]=size(TM);
R2=1-sum((TM-Pyuce).^2)/sum((mean(TM)-TM).^2);%相关性系数
MSE=error*error'/len;%均方误差
RMSE=MSE^(1/2);%均方根误差
disp(['测试集数据的MSE为:', num2str(MSE)])
disp(['测试集数据的MBE为:', num2str(RMSE)])
disp(['测试集数据的R2为:', num2str(R2)])




数据部分截图

在这里插入图片描述

结果:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
如有需要数据和代码压缩包请在评论区发邮箱留言,一般一天之内会发送,记得关注和点赞哦!!

  • 343
    点赞
  • 570
    收藏
    觉得还不错? 一键收藏
  • 563
    评论
随机森林是一种常用的机器学习算法,它通过组合多个决策树模型来实现高精度的分类和回归任务。随机森林算法具有高效、可扩展性和鲁棒性等优点,在实际应用中得到了广泛的运用。在Matlab中,我们可以使用Matlab自带的随机森林工具箱来实现随机森林分类和回归模型。 随机森林模型的建立需要进行数据集划分和决策树建模,具体步骤如下: 1. 数据集划分。将数据集划分为训练集和测试集,通常采用交叉验证或留出法进行数据集划分。 2. 随机森林模型训练。在训练集上建立多个决策树模型,每个决策树都是基于子集随机抽样得到的。 3. 预测模型评估。用测试集数据来评估随机森林的分类或回归精度。 下面是一个简单的随机森林Matlab代码示例,用于基于UCI数据集中的红酒质量数据建立一个随机森林分类模型。 %加载数据 data = xlsread('winequality-red.csv'); X = data(:,1:11); %特征数据 Y = data(:,12); %标签数据 %数据集划分 cv = cvpartition(size(X,1),'HoldOut',0.3); %划分70%的训练集和30%的测试集 idx = cv.test; Xtrain = X(~idx,:); Ytrain = Y(~idx,:); Xtest = X(idx,:); Ytest = Y(idx,:); %训练随机森林模型 ensemble = TreeBagger(100,Xtrain,Ytrain,'OOBPrediction','On','Method','classification'); %预测分类结果 Yfit = predict(ensemble,Xtest); %计算预测精度 acc = sum(str2double(Yfit)==Ytest)/numel(Ytest); %输出结果 disp(['Accuracy: ',num2str(acc)]); 该代码首先从UCI数据集red wine quality文件中加载红酒质量数据集,然后使用cvpartition函数将数据集划分为70%的训练集和30%的测试集。接下来利用Matlab自带的TreeBagger函数建立随机森林模型,并通过predict函数预测测试集的分类结果。最后根据预测结果计算随机森林的分类精度,并输出结果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 563
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值