BP神经网络数据分类是一种基于神经网络的数据分类方法,它通过构建一个BP神经网络模型,将输入数据映射到输出结果,从而实现数据的分类。
数据:UCI Machine Learning Repository
%% 清空环境变量
clc
clear
%% 数据提取
% 载入测试数据wine,其中包含的数据为classnumber = 3,wine:178*13的矩阵,wine_labes:178*1的列向量
load chapter_WineClass.mat;
%输入输出数据
input=wine;
output1 =wine_labels;
%把输出从1维变成3维
output=zeros(178,3);
for i=1:178
switch output1(i)
case 1
output(i,:)=[1 0 0];
case 2
output(i,:)=[0 1 0];
case 3
output(i,:)=[0 0 1];
end
end
% 随机选定训练集和测试集
k_1=rand(1,59);
[m_1,n_1]=sort(k_1);
k_2=rand(1,71);
[m_2,n_2]=sort(k_2);
k_3=rand(1,48);
[m_3,n_3]=sort(k_3);
% 将第一类的1-30,第二类的60-95,第三类的131-153做为训练集
input_train= [input(n_1(1:30),:);input((59.+n_2(1:35)),:);input((130.+n_3(1:24)),:)]';
% 相应的训练集的标签也要分离出来
output_train = [output(n_1(1:30),:);output((59.+n_2(1:35)),:);output((130.+n_3(1:24)),:)]';
% 将第一类的31-59,第二类的96-130,第三类的154-178做为测试集
input_test =[input(n_1(31:59),:);input((59.+n_2(36:71)),:);input((130.+n_3(25:48)),:)]';
% 相应的测试集的标签也要分离出来
output_test = [output((n_1(31:59)),:);output((59.+n_2(36:71)),:);output((130.+n_3(25:48)),:)]';
output_test1=[output1(n_1(31:59));output1(59.+n_2(36:71));output1(130.+n_3(25:48))];
clear k_1 k_2 k_3 m_1 m_2 m_3 n_1 n_2 n_3
%输入数据归一化
[inputn,inputps]=mapminmax(input_train);
%% 网络结构初始化
innum=13;
midnum=14;
outnum=3;
%权值初始化
w1=rands(midnum,innum);
b1=rands(midnum,1);
w2=rands(midnum,outnum);
b2=rands(outnum,1);
w2_1=w2;w2_2=w2_1;
w1_1=w1;w1_2=w1_1;
b1_1=b1;b1_2=b1_1;
b2_1=b2;b2_2=b2_1;
%学习率
xite=0.1;
alfa=0.01;
loopNumber=10;
I=zeros(1,midnum);
Iout=zeros(1,midnum);
FI=zeros(1,midnum);
dw1=zeros(innum,midnum);
db1=zeros(1,midnum);
%% 网络训练
E=zeros(1,loopNumber);
for ii=1:loopNumber
E(ii)=0;
for i=1:1:89
%% 网络预测输出
x=inputn(:,i);
% 隐含层输出
for j=1:1:midnum
I(j)=inputn(:,i)'*w1(j,:)'+b1(j);
Iout(j)=1/(1+exp(-I(j)));
end
% 输出层输出
yn=w2'*Iout'+b2;
%% 权值阀值修正
%计算误差
e=output_train(:,i)-yn;
E(ii)=E(ii)+sum(abs(e));
%计算权值变化率
dw2=e*Iout;
db2=e';
for j=1:1:midnum
S=1/(1+exp(-I(j)));
FI(j)=S*(1-S);
end
for k=1:1:innum
for j=1:1:midnum
dw1(k,j)=FI(j)*x(k)*(e(1)*w2(j,1)+e(2)*w2(j,2)+e(3)*w2(j,3));
db1(j)=FI(j)*(e(1)*w2(j,1)+e(2)*w2(j,2)+e(3)*w2(j,3));
end
end
w1=w1_1+xite*dw1';
b1=b1_1+xite*db1';
w2=w2_1+xite*dw2';
b2=b2_1+xite*db2';
w1_2=w1_1;w1_1=w1;
w2_2=w2_1;w2_1=w2;
b1_2=b1_1;b1_1=b1;
b2_2=b2_1;b2_1=b2;
end
end
%%意大利葡萄酒种类识别
inputn_test=mapminmax('apply',input_test,inputps);
fore=zeros(3,89);
for ii=1:1
for i=1:89
%隐含层输出
for j=1:1:midnum
I(j)=inputn_test(:,i)'*w1(j,:)'+b1(j);
Iout(j)=1/(1+exp(-I(j)));
end
fore(:,i)=w2'*Iout'+b2;
end
end
%% 结果分析
%根据网络输出找出数据属于哪类
output_fore=zeros(1,89);
for i=1:89
output_fore(i)=find(fore(:,i)==max(fore(:,i)));
end
%BP网络预测误差
error=output_fore-output_test1';
%画出预测意大利葡萄酒种类识别分类图
figure(1)
plot(output_fore,'r')
hold on
plot(output_test1','b')
legend('预测意大利葡萄酒种类识别','实际意大利葡萄酒种类识别')
%画出误差图
figure(2)
plot(error)
title('BP网络分类误差','fontsize',12)
xlabel('意大利葡萄酒种类','fontsize',12)
ylabel('分类误差','fontsize',12)
%print -dtiff -r600 1-4
k=zeros(1,3);
%找出判断错误的分类属于哪一类
for i=1:89
if error(i)~=0
[b,c]=max(output_test(:,i));
switch c
case 1
k(1)=k(1)+1;
case 2
k(2)=k(2)+1;
case 3
k(3)=k(3)+1;
end
end
end
%找出每类的个体和
kk=zeros(1,3);
for i=1:89
[b,c]=max(output_test(:,i));
switch c
case 1
kk(1)=kk(1)+1;
case 2
kk(2)=kk(2)+1;
case 3
kk(3)=kk(3)+1;
end
end
%正确率
rightridio=(kk-k)./kk;
disp('正确率')
disp(rightridio);