遗传算法优化神经网络

%%将神经网络作为遗传算法主函数
function error=Bpnetfun(x,P,T,hiddennum,P_test,T_test)
%%设置bp神经网络的误差函数作为适应度函数
%%设置函数其中的参数,x为,P为输入的训练样本,T为训练样本的输出
%%hiddennum为隐藏层神经元个数
%%p_test表示测试样本的输入 T_test表示测试样本的输出
%% 1.输入神经网络的输入层和输出层的结构
inputnum=size(P,1)%输入层的神经元个数以输入数据为依据
outputnum=size(T,1)%输出层同上
%% 2.建立  BP 神经网络的结构
net=feedforwardnet(hiddennum) %feedforwardnet是建立前馈神经网络,当然也可以用netff
net=configure(net,P,T)
net.layers{2}.transferFcn='logsig';%表示的是隐藏层到输出层的激活函数为s型对数函数
%% 3.设置参数,训练次数为1000,训练目标为0.01,学习速率为0.1
net.trainParam.epochs=1000;
net.trainParam.goal=0.01;
net.trainParam.lr = 0.1;
net.trainParam.show=NaN; % 不显示图形框
%% BP神经网络初始权值和阈值
w1num=inputnum*hiddennum; % 输入层到隐层的w个数
w2num=outputnum*hiddennum;% 隐含层到输出层的w个数
w1=x(1:w1num);   %初始输入层到隐含层的权值
B1=x(w1num+1:w1num+hiddennum);  %隐层神经元阈值
w2=x(w1num+hiddennum+1:w1num+hiddennum+w2num); %初始隐层到输出层的权值
B2=x(w1num+hiddennum+w2num+1:w1num+hiddennum+w2num+outputnum); %输出层阈值
net.iw{1,1}=reshape(w1,hiddennum,inputnum);%net.iw{1,1}代表输入层与隐藏层之间的权值
net.lw{2,1}=reshape(w2,outputnum,hiddennum);%net.lw{2,1}隐藏层与输出层之间的权值
net.b{1}=reshape(B1,hiddennum,1);
net.b{2}=reshape(B2,outputnum,1);
%% 训练网络
net=train(net,P,T);
%% 测试网络
Y=sim(net,P_test);
error=norm(Y-T_test);%norm这个函数可以百度一下,有点类似于计算均方误差,默认是2次方
end

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

优化大师傅

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值