💥💥💞💞欢迎来到本博客❤️❤️💥💥
🏆博主优势:🌞🌞🌞博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。
⛳️座右铭:行百里者,半于九十。
📋📋📋本文目录如下:🎁🎁🎁
目录
⛳️赠与读者
👨💻做科研,涉及到一个深在的思想系统,需要科研者逻辑缜密,踏实认真,但是不能只是努力,很多时候借力比努力更重要,然后还要有仰望星空的创新点和启发点。当哲学课上老师问你什么是科学,什么是电的时候,不要觉得这些问题搞笑。哲学是科学之母,哲学就是追究终极问题,寻找那些不言自明只有小孩子会问的但是你却回答不出来的问题。建议读者按目录次序逐一浏览,免得骤然跌入幽暗的迷宫找不到来时的路,它不足为你揭示全部问题的答案,但若能让人胸中升起一朵朵疑云,也未尝不会酿成晚霞斑斓的别一番景致,万一它居然给你带来了一场精神世界的苦雨,那就借机洗刷一下原来存放在那儿的“躺平”上的尘埃吧。
或许,雨过云收,神驰的天地更清朗.......🔎🔎🔎
💥1 概述
基于鳑鲏鱼优化算法(Bitterling Fish Optimization, BFO)优化BP神经网络的研究是一个结合了自然启发的群智能优化算法与人工神经网络的前沿探索。以下是对这一研究方向的详细探讨:
一、引言
BP(Back Propagation)神经网络因其强大的非线性映射能力和学习能力,在模式识别、信号处理、控制优化等领域得到了广泛应用。然而,BP神经网络在训练过程中容易陷入局部最优解,且对初始权重的选择较为敏感。为了克服这些问题,研究者们开始探索使用各种优化算法来改进BP神经网络的训练过程。鳑鲏鱼优化算法作为一种新兴的群智能优化算法,因其独特的搜索机制和较高的搜索效率,为BP神经网络的优化提供了新的思路。
二、鳑鲏鱼优化算法概述
鳑鲏鱼优化算法(BFO)是一种受自然启发的群智能优化算法,由Lida Zareian等人于2024年提出。该算法灵感来源于鳑鲏鱼独特的繁殖机制,特别是它们在寻找合适的产卵壳(如牡蛎)时的行为。在BFO算法中,每个解决方案都被视为一条鳑鲏鱼或一个鱼卵,通过模拟鳑鲏鱼的交配、繁殖和竞争行为来寻找最优解。
三、BFO优化BP神经网络的基本原理
1. 初始化
在BFO算法中,首先生成一个初始种群,每个种群成员代表一个BP神经网络的权重和阈值组合。这些初始权重和阈值可以是随机生成的,也可以是基于某种先验知识设定的。
2. 评估
使用训练数据集对每个BP神经网络进行评估,计算其输出误差或损失函数值。这个值将作为鳑鲏鱼(即解决方案)的适应度或质量指标。
3. 搜索与更新
在BFO算法的迭代过程中,每条鳑鲏鱼(即每个解决方案)都会尝试在解空间中搜索更好的位置(即更好的权重和阈值组合)。这通常通过模拟鳑鲏鱼的交配、繁殖和竞争行为来实现。例如,一些鳑鲏鱼可能会向其他更优秀的鳑鲏鱼靠近(即学习其他解决方案的优点),而另一些则可能会通过随机探索来发现新的解空间区域。
4. 迭代与收敛
重复上述搜索和更新过程,直到满足某个停止条件(如达到最大迭代次数、误差率不再显著降低等)。在迭代过程中,通过不断地搜索和更新,BP神经网络的权重和阈值将逐渐逼近最优解。
四、优势与挑战
优势
- 全局搜索能力:BFO算法具有全局搜索能力,能够探索更多的解空间区域,从而有可能找到比传统方法更优的BP神经网络权重和阈值组合。
- 灵活性:BFO算法可以灵活地与其他优化算法或技术相结合,以进一步提高BP神经网络的性能。
挑战
- 计算复杂度:BFO算法的计算复杂度较高,特别是在处理大规模数据集和复杂网络结构时,可能需要较长的计算时间。
- 参数设置:BFO算法中的参数(如种群大小、迭代次数、搜索步长等)需要仔细设置,以确保算法的有效性和效率。
五、结论与展望
基于鳑鲏鱼优化算法优化BP神经网络的研究为神经网络的优化提供了一种新的思路和方法。虽然目前这一领域的研究还处于起步阶段,但随着算法的不断完善和应用场景的不断拓展,相信未来会有更多的研究成果涌现出来。同时,也需要关注算法的计算效率和实际应用效果等方面的挑战,以推动这一研究方向的进一步发展。
📚2 运行结果
包括以下几种优化算法:
部分代码:
%% 调用算法
disp('正在优化,请等待……')
H1 = cell2mat(str(number));
eval(['[fMin , bestX, Convergence_curve ] =',H1,'(SearchAgents_no,Max_iter,lb,ub,dim,fobj);'])
%% 绘制进化曲线
figure
plot(Convergence_curve,'k-','linewidth',2)
xlabel('进化代数')
ylabel('均方误差')
legend('最佳适应度')
title('进化曲线')
setdemorandstream(temp);%此行代码用于生成随机数种子,确保结果可以复现
[~,optimize_test_simu]=fitness(bestX,inputnum,hiddennum_best,outputnum,net,inputn,outputn,inputn_test,outputps,output_test);
%% 比较算法预测值
str={'真实值','标准BP','优化后BP'};
figure('Units', 'pixels', ...
'Position', [300 300 860 370]);
plot(output_test,'-','Color',[0 1 0])
hold on
plot(test_simu0,'-.','Color',[1 1 0])
hold on
plot(optimize_test_simu,'-','Color',[0 0 1])
legend(str)
set (gca,"FontSize",12,'LineWidth',1.2)
box off
legend Box off
%% 比较算法误差
test_y = output_test;
Test_all = [];
y_test_predict = test_simu0;
[test_MAE,test_MAPE,test_MSE,test_RMSE,test_R2]=calc_error(y_test_predict,test_y);
Test_all=[Test_all;test_MAE test_MAPE test_MSE test_RMSE test_R2];
y_test_predict = optimize_test_simu;
[test_MAE,test_MAPE,test_MSE,test_RMSE,test_R2]=calc_error(y_test_predict,test_y);
Test_all=[Test_all;test_MAE test_MAPE test_MSE test_RMSE test_R2];
str={'真实值','标准BP','优化后BP'};
str1=str(2:end);
str2={'MAE','MAPE','MSE','RMSE','R2'};
data_out=array2table(Test_all);
data_out.Properties.VariableNames=str2;
data_out.Properties.RowNames=str1;
disp(data_out)
%% 柱状图 MAE MAPE RMSE 柱状图适合量纲差别不大的
color= [0 1 0
0.1339 0.7882 0.8588
0.1525 0.6645 0.1290
0.8549 0.9373 0.8275
0.1551 0.2176 0.8627
0.7843 0.1412 0.1373
0.2000 0.9213 0.8176
0.5569 0.8118 0.7882
1.0000 0.5333 0.5176];
figure('Units', 'pixels', ...
'Position', [300 300 660 375]);
plot_data_t=Test_all(:,[1,2,4])';
b=bar(plot_data_t,0.8);
hold on
for i = 1 : size(plot_data_t,2)
x_data(:, i) = b(i).XEndPoints';
end
for i =1:size(plot_data_t,2)
b(i).FaceColor = color(i,:);
b(i).EdgeColor=[0.3353 0.3314 0.6431];
b(i).LineWidth=1.2;
end
for i = 1 : size(plot_data_t,1)-1
xilnk=(x_data(i, end)+ x_data(i+1, 1))/2;
b1=xline(xilnk,'--','LineWidth',1.2);
hold on
end
ax=gca;
legend(b,str1,'Location','best')
ax.XTickLabels ={'MAE', 'MAPE', 'RMSE'};
set(gca,"FontSize",10,"LineWidth",1)
box off
legend box off
%% 二维图
figure
plot_data_t1=Test_all(:,[1,5])';
MarkerType={'*','>','pentagram','^','v'};
for i = 1 : size(plot_data_t1,2)
scatter(plot_data_t1(1,i),plot_data_t1(2,i),120,MarkerType{i},"filled")
hold on
end
set(gca,"FontSize",12,"LineWidth",2)
box off
legend box off
legend(str1,'Location','best')
xlabel('MAE')
ylabel('R2')
grid on
%% 雷达图
figure('Units', 'pixels', ...
'Position', [150 150 520 500]);
Test_all1=Test_all./sum(Test_all); %把各个指标归一化到一个量纲
Test_all1(:,end)=1-Test_all(:,end);
RC=radarChart(Test_all1);
str3={'MAE','MAPE','MSE','RMSE','R2'};
RC.PropName=str3;
RC.ClassName=str1;
RC=RC.draw();
RC.legend();
RC.setBkg('FaceColor',[1,1,1])
RC.setRLabel('Color','none')
colorList=[181 86 29;
78 101 155;
184 168 207;
231 188 198;
182 118 108;
239 164 132;
253 207 158]./255;
for n=1:RC.ClassNum
RC.setPatchN(n,'Color',colorList(n,:),'MarkerFaceColor',colorList(n,:))
end
%%
figure('Units', 'pixels', ...
'Position', [150 150 920 600]);
t = tiledlayout('flow','TileSpacing','compact');
for i=1:length(Test_all(:,1))
nexttile
th1 = linspace(2*pi/length(Test_all(:,1))/2,2*pi-2*pi/length(Test_all(:,1))/2,length(Test_all(:,1)));
r1 = Test_all(:,i)';
[u1,v1] = pol2cart(th1,r1);
M=compass(u1,v1);
for j=1:length(Test_all(:,1))
M(j).LineWidth = 2;
M(j).Color = colorList(j,:);
end
title(str2{i})
set(gca,"FontSize",10,"LineWidth",1)
end
legend(M,str1,"FontSize",10,"LineWidth",1,'Box','off','Location','southoutside')
🎉3 参考文献
文章中一些内容引自网络,会注明出处或引用为参考文献,难免有未尽之处,如有不妥,请随时联系删除。
[1]尹相国,张文,胡柏华,等.基于BP神经网络算法的新一代智能变电站控制障碍分析与定位技术研究[J].自动化与仪器仪表, 2023(8):144-149.、
[2]李伟,何鹏举,杨恒,等.基于粗糙集和改进遗传算法优化BP神经网络的算法研究[J].西北工业大学学报, 2012, 30(4):6.DOI:10.3969/j.issn.1000-2758.2012.04.022.
[3]王晓荣,伦淑娴.基于改进粒子群算法的BP神经网络优化研究[J].渤海大学学报(自然科学版), 2008.DOI:JournalArticle/5aec645bc095d710d4ff1b17.
[3]邹琼,吴曦,张杨,et al.基于麻雀搜索算法优化的BP神经网络模型对2型糖尿病肾病的预测研究[J].中国全科医学, 2024, 27(08):961-970.DOI:10.12114/j.issn.1007-9572.2023.0360.
🌈4 Matlab代码、数据
资料获取,更多粉丝福利,MATLAB|Simulink|Python资源获取