matlab之BP神经网络专题篇

1 BP神经网络之Outline
1.1BP神经网络的结构
多层前向网络,又叫多层感知器

传递函数:为误差反向传播提供支持


各层之间为全连接


误差反向传播收敛的重要条件

调整权值和偏置是BP网络的算法核心











应用实例:


样本数据的归一化:

代码:

*数据前处理并读入

% 批量方式训练BP网络,实现性别识别
%% 清理
clear all
clc
%% 读入数据
xlsfile='student.xls';
[data,label]=getdata(xlsfile);
%% 划分数据
[traind,trainl,testd,testl]=divide(data,label);

%*********** 构造网络并初始化 *************
%% 设置参数
rng('default')
rng(0)
nTrainNum = 60; % 60个训练样本
nSampDim = 2;   % 样本是2维的
%% 构造网络
net.nIn=2;
net.nHidden = 3;    % 3个隐含层节点
net.nOut = 1;       % 一个输出层节点
w = 2*(rand(net.nHidden,net.nIn)-1/2);  % nHidden * 3 一行代表一个隐含层节点
b = 2*(rand(net.nHidden,1)-1/2);
net.w1 = [w,b];
W = 2*(rand(net.nOut,net.nHidden)-1/2);
B = 2*(rand(net.nOut,1)-1/2);
net.w2 = [W,B];
%% 训练数据归一化
mm=mean(traind);
% 均值平移
for i=1:2
    traind_s(:,i)=traind(:,i)-mm(i);
end
% 方差标准化
ml(1) = std(traind_s(:,1));
ml(2) = std(traind_s(:,2));
for i=1:2
   traind_s(:,i)=traind_s(:,i)/ml(i);
end

训练网络:
%************* 训练参数设置 **************
SampInEx = [ traind_s'; ones(1,nTrainNum)];
expectedOut=trainl;
eb = 0.01;                   % 误差容限
eta = 0.6;                   % 学习率
mc = 0.8;                    % 动量因子
maxiter = 2000;              % 最大迭代次数
iteration = 0;               % 第一代
 
errRec = zeros(1,maxiter);
outRec = zeros(nTrainNum, maxiter);
NET=[]; % 记录
%****************** 迭代计算( 重要) ************
% 开始迭代
for i = 1 : maxiter
     % 样本数据前向传播
    hid_input = net.w1 * SampInEx;     % 隐含层的输入
    hid_out = logsig(hid_input);       % 隐含层的输出
   
    ou_input1 = [hid_out; ones(1,nTrainNum)];   % 输出层的输入
    ou_input2 = net.w2 * ou_input1;
    out_out = logsig(ou_input2);                  % 输出层的输出
   
    outRec(:,i) = out_out';                       % 记录每次迭代的输出
    
    err = expectedOut - out_out;                  % 误差
    sse = sumsqr(err);      
    errRec(i) = sse;                              % 保存误差值 
    fprintf('第 %d 次迭代   误差:  %f\n', i, sse);
    iteration = iteration + 1;  
    % 判断是否收敛
    if sse<=eb
        break;
    end
   
    % 误差反向传播
    % 隐含层与输出层之间的 局部梯度
    DELTA = err.* dlogsig(ou_input2,out_out);     
    % 输入层与隐含层之间的 局部梯度
    delta = net.w2(:, 1:end-1)' * DELTA.*dlogsig(hid_input,hid_out);
    
    % 权值修改量
    dWEX = DELTA*ou_input1';
    dwex = delta*SampInEx';
    
    %  修改权值,如果不是第一次修改,则使用动量因子
    if i == 1
        net.w2 = net.w2 + eta * dWEX;
        net.w1 = net.w1 + eta * dwex;
    else   
        net.w2 = net.w2 + (1 - mc)*eta*dWEX + mc * dWEXOld;
        net.w1 = net.w1 + (1 - mc)*eta*dwex + mc * dwexOld;
    end
    % 记录上一次的权值修改量
    dWEXOld = dWEX;
    dwexOld = dwex;
   
end    
%% 测试
% 测试数据归一化
for i=1:2
    testd_s(:,i)=testd(:,i)-mm(i);
end
for i=1:2
   testd_s(:,i)=testd_s(:,i)/ml(i);
end
% 计算测试输出
InEx=[testd_s';ones(1,260-nTrainNum)];

hid_input = net.w1 * InEx;
hid_out = logsig(hid_input);       % output of the hidden layer nodes

ou_input1 = [hid_out;ones(1,260-nTrainNum)];
ou_input2 = net.w2 * ou_input1;
out_out = logsig(ou_input2);
out_out1=out_out;

% 取整
out_out(out_out<0.5)=0;
out_out(out_out>=0.5)=1;
% 正确率
rate = sum(out_out == testl)/length(out_out);
显示:
%% 显示
% 显示训练样本
train_m = traind(trainl==1,:);
train_m=train_m';
train_f = traind(trainl==0,:);
train_f=train_f';
figure(1)
plot(train_m(1,:),train_m(2,:),'bo');
hold on;
plot(train_f(1,:),train_f(2,:),'r*');
xlabel('身高')
ylabel('体重')
title('训练样本分布')
legend('男生','女生')
figure(2)
axis on
hold on
grid
[nRow,nCol] = size(errRec);
plot(1:nCol,errRec,'LineWidth',1.5);
legend('误差平方和');
xlabel('迭代次数','FontName','Times','FontSize',10);
ylabel('误差')
fprintf('   ----------------错误分类表----------\n')
fprintf('   编号   标签     身高        体重\n')
ind= find(out_out ~= testl);
for i=1:length(ind)
   fprintf('  %4d  %4d   %f   %f \n', ind(i), testl(ind(i)), testd(ind(i),1), testd(ind(i),2));
end
fprintf('最终迭代次数\n    %d\n', iteration);
fprintf('正确率:\n    %f%%\n', rate*100);













  • 0
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值