BP神经网络应用案例

目录

背景介绍

【神经网络符号说明】

 【建立网络拓扑结构】

【神经网络学习步骤】

步骤1 准备输入和输出样本

步骤2  确定网络学习参数

 步骤3  初始化网络权值W和阀值B

 步骤4  计算网络第一层的输入和输出

步骤5 计算中间层(隐含层输入和输出)

步骤6 计算输出层的输入和输出​编辑

步骤7 计算能量函数

步骤8 计算能量函数对各参数的偏导数(梯度)

步骤9 计算各权值的调整量

步骤10  调整各个权值

步骤11 网络输出的还原

 神经网络训练(建模过程的有关细节略去)

输入变量

输出变量

【基于案例的网络训练效果与参数的关系】

1、其余要素不变,训练次数与误差的关系

 2、隐含层神经元数量与误差关系

3、学习效率与误差关系

 4、利用训练好的网络进行预测

 5、避免过度拟合,需要对样本输出做干扰处理


背景介绍

冶金技术,钢铁开始锻炼的“开始温度”与13个指标有关,见表(1)。

出钢时间/h

钢水净重量/t

吹止温度/oC

高碳锰铁/t

低碳锰铁/t

硅锰铁/t

硅铁/t

铝块/t

增碳剂/t

中碳锰铁/t

包龄//

运输时间/min

等待时间/min

开始温度

3

279000

1673

0

5211

0

0

667

0

0

14

45.78

3.03

1557

6

274000

1669

0

5116

0

0

501

0

0

56

9.23

9.37

1561

6

280000

1675

0

5050

0

0

497

0

0

77

22.42

8.83

1583

9

267000

1650

0

5032

0

0

0

0

0

62

24.03

7.17

1553

6

280000

1657

0

4655

0

0

498

0

0

19

28.52

12.3

1574

7

303000

1659

0

1124

0

0

413

180

0

12

45.6

8.13

1568

7

283000

1655

0

1112

0

0

447

176

0

84

46.18

8

1576

7

280000

1649

0

1110

0

0

459

281

0

75

25.07

8.63

1575

5

278000

1641

9876

0

0

2996

2604

472

0

13

30.55

10.27

1594

6

285000

1659

2531

0

0

696

466

73

0

58

19.67

7.87

1570

9

279737

1652

2326

0

0

702

413

64

0

11

33.93

7.07

1550

9

279195

1658

2295

0

0

641

403

94

0

33

40.3

6.97

1566

5

274000

1666

2208

0

0

747

404

103

0

8

25.45

11.8

1578

6

280201

1671

2015

0

0

356

450

0

806

48

28.7

2.83

1591

6

275000

1689

2011

0

0

512

566

0

1597

72

31.63

10.73

1585

5

273000

1647

2003

0

0

603

415

0

0

26

21.4

8.78

1574

8

295000

1633

1806

0

2032

307

305

0

800

16

27.02

10.92

1563

6

276000

1646

1501

0

0

247

446

0

445

86

35.88

11.9

1532

7

292000

1668

1295

0

3786

82

300

50

0

98

24.95

10.43

1563

5

290000

1670

996

0

3507

0

449

0

151

5

45.55

9.72

1572

6

293000

1687

203

0

0

700

296

154

0

59

37.68

8.53

1592

6

288000

1659

0

0

2282

302

449

0

1005

15

25.5

11.45

1575

3

290762

1671

0

0

2046

105

484

0

2715

39

45.3

2.83

1571

6

280875

1658

0

0

2195

0

399

0

2452

7

23.27

7.03

1597

8

284000

1625

0

0

2049

0

467

0

2714

59

34.65

8.2

1595

7

284000

1661

0

0

2018

0

463

0

2649

56

19.13

11.17

1569

6

280000

1669

0

0

2010

0

397

0

2582

13

16.2

9.13

1598

8

257000

1662

0

0

2008

0

422

0

2492

55

10.8

9.03

1606

7

274660

1675

0

0

1503

0

523

0

3326

55

11.22

10.87

1593

6

266000

1673

0

0

1362

0

621

0

3299

61

11.33

9.33

1598

                                                表1 钢铁锻炼的有关指标 

 由冶金机理可知,钢铁开始锻炼的“开始温度”(表中最后1列)会受到出钢时间、钢水净重、吹止温度、高碳锰铁、…、等待时间等13个因素(表1中前13列)影响。这里,将前13列作为输入因子,最后一列作为输出因子,用于学习如何训练BP神经网络及其步骤。

【神经网络符号说明】

  • 系统X输入样本;Y系统输出样本;
  • I1 输入层输入数据;O1为输入层输出数据;
  • I2 隐含层输入数据;O2为隐含层输出数据;
  • I3 输出层输入数据;O3输出层输出数据;
  • 输入层和输出层采用线性函数f(x)=x;
  • 隐含层采用S型刺激函数(第1个,0到1);
  • W1为输入层到隐含层权值,B1为输入层到隐含层阀值;
  • W2为隐含层到输出层权值,B2为隐含层到输出层阀值;
  • E=Ones 为元素为1的行矩阵,维数与Y一致;

 【建立网络拓扑结构】

 针对本案例,需要说明:(1)输入层输入I1=X13×30;(2)由输入层到隐含层参数(W1)12×13,(B1)12×1;(3)中间层到输出层(W2)1×12,(B2)1×1;(4)为了满足矩阵相加,(E)1×30. 

【神经网络学习步骤】

步骤1 准备输入和输出样本

设X为13行30列的输入样本矩阵,Y为1行30列的输出样本。由于输入和输出矩阵的数据量纲不同,计量单位也不同,需要归一化,有两种方式

 

or

步骤2  确定网络学习参数

最大训练次数   5000
隐含层神经元数量(或隐含层数量,各层神经元数量)
               1层,12个神经元
网络学习效率(速度)   0.035
训练目标误差     0.65×10-3.
是否添加动量因子    否

 步骤3  初始化网络权值W和阀值B

W1和B1,W2和B2都采用随机数生成。另外特别说明:

  1. 训练步骤是按照批量形式进行(即样本一次全部输入,采用矩阵运算)
  2. 阀值写成权值形式,也就是说阀值看成样本输入为1的随机数
  3. 数据输入是按照行作为一个输入维度(不是列),即每个样本为一个输入维度,即X的形式要把握

 步骤4  计算网络第一层的输入和输出

由于样本输入就是第一层输入,第一层输入又是线性函数,所以有

步骤5 计算中间层(隐含层输入和输出)

步骤6 计算输出层的输入和输出

步骤7 计算能量函数

为残差向量,能量函数定义为

步骤8 计算能量函数对各参数的偏导数(梯度)

(1)把能量函数写成所有权系数的逐步复合函数,求能量函数关于这些权系数的偏导数(表达成梯度向量)

(2)计算能量函数对权的偏导数 根据复合函数求导链式法则,有

 注意:点乘·表示两个矩阵对应分量相乘得到同型矩阵。

步骤9 计算各权值的调整量

由于负梯度方向是能量函数下降最快的方向,故各个权系数的调整量为

其中,\eta表示学习效率(速度,也就是搜索步长)。

步骤10  调整各个权值

权值=权值+调整量,先调整输出层到隐含层的权值,再调整隐含层到输入层的权值。这个调整方向和计算网络输出的方向刚好相反,故称为前向反馈网络。 

 由于负梯度方向搜索法容易限于局部极值,故很多问题里,调整量还附加了动量因子。

步骤11 网络输出的还原

根据步骤1数据归一化的逆函数,将网络输出还原为样本输出等同意义的数据,用于决策。

{(0,1)还原}

{(-1,1)还原}

在神经网络学习术语里,称样本输出Y为导师数据,或监督数据,称有参考数据的网络学习为有监督学习或有导师学习。而在没有给出监督数据的问题里,要根据问题,构造一个理想的(不存在的)的监督数据,以确定能量函数。现代机器学习人工智能深度学习的一个困惑或难点就是确定合理的导师数据。从上面11步骤可以看到,神经网络训练其实就是利用最小二乘法求解合适的权系数(用的是逆向反馈法)。

 神经网络训练(建模过程的有关细节略去)

 案例数据存放地点:

A=xlsread('d:\ganglengque.xlsx');
X=A(:,1:end-1)';Y=A(:,end)';

编写一个负梯度训练子程序

function [W1,W2,B1,B2,eb,s2]=BPnn(X,Y,n1,n,lr,sig)
[X]=mapminmax(X);              % 对输入数据进行归一化处理
[Y,s2]=mapminmax(Y);           % 对输出数据进行归一化处理
W1=rand(n1,13);                % 随机初始化输入到隐藏层的权重矩阵
B1=rand(n1,1);                 % 随机初始化隐藏层的偏置向量
W2=rand(1,n1);                 % 随机初始化隐藏层到输出层的权重矩阵
B2=rand(1,1);                  % 随机初始化输出层的偏置向量
E=ones(size(Y));               % 创建一个与输出数据大小相同的向量
eb=[];                         % 用于保存每轮训练的误差
for i=1:n                      % 进行 n 轮训练
    I1=X;                     % 输入数据
    O1=I1;                    % 输入层的输出等于输入数据
    I2=W1*O1+B1*E;            % 隐含层的输入
    O2=logsig(I2);            % 隐含层的输出
    I3=W2*O2+B2*E;            % 输出层的输入
    O3=I3;                    % 输出层的输出
    err=Y-O3;                 % 计算实际输出与目标输出的误差
    hrr=sum(err.^2)^0.5;      % 计算均方根误差,也就是网络的性能指标
    eb=[eb,hrr];              % 将每轮训练的性能指标添加到误差向量中
    if hrr<sig                % 如果性能指标小于给定阈值 sig,则停止训练
       Xt=datetime;
       disp(Xt);             % 输出停止训练的时间
        break;
    end
    dW2=err*O2';              % 输出层到隐含层权重的梯度
    dB2=err*E';               % 输出层偏置的梯度
    dW1=((W2'*err).*(O2.*(1-O2)))*X';  % 隐含层到输入层权重的梯度
    dB1=((W2'*err).*(O2.*(1-O2)))*E';  % 隐含层偏置的梯度
    W1=W1+lr*dW1;             % 更新输入到隐藏层的权重矩阵
    B1=B1+lr*dB1;             % 更新隐藏层的偏置向量
    W2=W2+lr*dW2;             % 更新隐藏层到输出层的权重矩阵
    B2=B2+lr*dB2;             % 更新输出层的偏置向量
end
plot(1:length(Y),Y,'--',1:length(Y),O3,'*-');  % 绘制实际输出和网络输出的曲线
legend('样本输出','网络输出');

输入变量

 样本输入X;样本输出Y;隐含层神经元n1;训练次数n;学习效率lr;误差容许sig;

输出变量

 按要求训练得到的权系数W1,W2,B1,B2;各次训练残差痕迹向量eb;输出样本归一化信息s2.

【基于案例的网络训练效果与参数的关系】

1、其余要素不变,训练次数与误差的关系

将训练后的网络输出与样本输出(都归一化)绘制散点图,可以看出拟合好坏(即误差直观体现)

A=xlsread('d:\ganglengque.xlsx');
X=A(:,1:end-1)';Y=A(:,end)';
n1=12;lr=0.035;sig=0.003;
[W1,W2,B1,B2,eb,s2]=BPnn(X,Y,n1,20,lr,sig);
[W1,W2,B1,B2,eb,s2]=BPnn(X,Y,n1,60,lr,sig);
[W1,W2,B1,B2,eb,s2]=BPnn(X,Y,n1,180,lr,sig);
[W1,W2,B1,B2,eb,s2]=BPnn(X,Y,n1,500,lr,sig);
[W1,W2,B1,B2,eb,s2]=BPnn(X,Y,n1,1000,lr,sig);
[W1,W2,B1,B2,eb,s2]=BPnn(X,Y,n1,2000,lr,sig);

 2、隐含层神经元数量与误差关系

其它要素不变,都训练500次,隐含层神经元n1分别取4,6,8,10,12,16,观察拟合效果曲线

A=xlsread('d:\ganglengque.xlsx');
X=A(:,1:end-1)';Y=A(:,end)';
n=1000,lr=0.035;sig=0.003;
[W1,W2,B1,B2,eb,s2]=BPnn(X,Y,4,n,lr,sig);
[W1,W2,B1,B2,eb,s2]=BPnn(X,Y,6,n,lr,sig);
[W1,W2,B1,B2,eb,s2]=BPnn(X,Y,8,n,lr,sig);
[W1,W2,B1,B2,eb,s2]=BPnn(X,Y,10,n,lr,sig);
[W1,W2,B1,B2,eb,s2]=BPnn(X,Y,12,n,lr,sig);
[W1,W2,B1,B2,eb,s2]=BPnn(X,Y,16,n,lr,sig);

3、学习效率与误差关系

它输入因素不变,训练次数n=500,隐含层神经元n1=12,让学习效率lr分别取0.1,0.05,0.02,0.01,0.005,0.001,观察拟合曲线的效果

 4、利用训练好的网络进行预测

对n1=12,n=4000,lr=0.035,案例1提供的训练样本,输出训练好的权系数。如图所示,训练效果很好。

A=xlsread('d:\ganglengque.xlsx');
X=A(:,1:end-1)';Y=A(:,end)';
n=4000;n1=12;sig=0.003;lr=0.035;
[W1,W2,B1,B2,eb,s2]=BPnn(X,Y,n1,n,lr,sig);

训练完成的权系数W1,W2,B1,B2保存在表2中,用不同颜色区分。

W1= 

1

2

3

4

5

6

7

8

9

10

11

12

13

B1=

1

0.05 

-0.84 

0.97 

0.96 

0.18 

0.20 

0.85 

0.00 

0.80 

1.30 

-0.37 

0.23 

0.76 

0.28 

2

-0.65 

1.74 

0.41 

-0.37 

-0.41 

0.60 

0.65 

0.38 

0.48 

1.63 

1.55 

1.83 

0.35 

0.46 

3

0.57 

0.86 

0.79 

0.45 

1.55 

0.17 

0.67 

0.78 

0.24 

0.27 

0.90 

1.07 

0.66 

-0.17 

4

0.30 

0.00 

0.32 

1.05 

0.22 

0.25 

0.74 

0.75 

0.77 

0.63 

0.52 

0.24 

-0.09 

0.45 

5

0.23 

0.08 

0.76 

0.85 

-0.69 

1.48 

0.26 

0.55 

0.48 

1.80 

-0.03 

0.00 

-0.67 

0.40 

6

1.79 

-0.87 

-1.57 

0.92 

0.50 

2.29 

0.36 

0.33 

0.79 

0.94 

0.02 

0.93 

-0.35 

0.07 

7

0.30 

0.35 

0.71 

1.04 

0.45 

0.11 

0.80 

0.89 

0.89 

0.60 

0.26 

0.40 

0.59 

0.14 

8

3.15 

0.16 

-0.38 

1.66 

-0.33 

-0.60 

1.83 

0.62 

-0.48 

-0.38 

1.57 

0.10 

1.67 

-0.52 

9

-0.33 

-0.22 

0.64 

0.87 

1.70 

-0.21 

0.24 

0.83 

0.18 

0.39 

0.47 

-0.15 

-0.55 

0.03 

10

0.52 

0.70 

0.12 

0.61 

0.82 

0.74 

0.94 

1.12 

1.01 

0.32 

0.31 

0.38 

0.48 

0.55 

11

0.90 

0.70 

0.71 

0.85 

1.00 

0.66 

0.29 

0.50 

1.07 

0.79 

0.34 

0.54 

0.32 

0.11 

12

1.12 

0.28 

2.61 

1.13 

0.00 

-0.72 

1.32 

0.69 

1.08 

-0.18 

2.17 

1.17 

-0.25 

0.63 

W2=

0.82 

-1.11 

0.80 

-0.03 

0.95 

1.88 

-0.15 

-1.62 

-1.12 

-0.06 

-0.05 

1.38 

B2=

0.16 

 

 5、避免过度拟合,需要对样本输出做干扰处理

对网络输入(已经归一化后的数据),在添加一个噪声向量,即Y=Y+noise,一般noise为均值为0的正态分布 ,即noise=normrnd(0,1,size(Y);         Y=Y+r*noise;

r为噪声强度,一般r非常小。

取r=0.01,加入BP神经网络拟合中,代码如下

function [W1,W2,B1,B2,eb,s2]=BPnnn(X,Y,n1,n,lr,sig)
[X]=mapminmax(X);
[Y,s2]=mapminmax(Y);
noise=normrnd(0,1,size(Y));
Y=Y+0.2*noise;
W1=rand(n1,13);B1=rand(n1,1);
W2=rand(1,n1);B2=rand(1,1);
E=ones(size(Y));
eb=[];
for i=1:n
    I1=X;
    O1=I1;
    I2=W1*O1+B1*E;
    O2=logsig(I2);
    I3=W2*O2+B2*E;
    O3=I3;
    err=Y-O3;
    hrr=sum(err.^2)^0.5;
    eb=[eb,hrr];
    if hrr<sig
       Xt=datetime;
       disp(Xt);
        break;
    end
    dW2=err*O2';
    dB2=err*E';
    dW1=((W2'*err).*(O2.*(1-O2)))*X';
    dB1=((W2'*err).*(O2.*(1-O2)))*E';
    W1=W1+lr*dW1;
    B1=B1+lr*dB1;
    W2=W2+lr*dW2;
    B2=B2+lr*dB2;
end
plot(1:length(Y),Y,'--',1:length(Y),O3,'*-');
legend('Ñù±¾Êä³ö','ÍøÂçÊä³ö')

在隐含层神经元n1=12,学习效率lr=0.035,训练次数n=4000情况下,容差sig=0.003情况下,将有噪声(强度系数0.8)和无噪声两种情况的残差结果进行对比,见下图。可以看出,有噪声收敛速度慢于无噪声。

A=xlsread('d:\ganglengque.xlsx');
X=A(:,1:end-1)';Y=A(:,end)';
n1=12;lr=0.035;sig=0.003;n=4000;
[W1,W2,B1,B2,eb1,s1]=BPnn(X,Y,n1,n,lr,sig);
[W11,W21,B11,B21,eb2,s2]=BPnnn(X,Y,n1,n,lr,sig);
subplot(2,1,1);
bar(eb1);
subplot(2,1,2);
bar(eb2);

  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
在给出的引用信息中,提到了使用PyTorch构建BP神经网络的示例代码。BP指的是反向传播算法(backpropagation),它是一种常用的神经网络训练算法。 在引用中,展示了使用torch.nn.Sequential搭建BP神经网络的示例代码。该代码首先导入numpy、torch和torchvision等依赖库,并定义了训练数据data和标签label。然后通过torch.nn.Sequential构建了一个包含多个线性层和激活函数的BP神经网络模型。接着定义了损失函数和参数更新方法,并进行了100次的训练过程。 在引用中,展示了使用torch.nn.Module继承父类搭建BP神经网络的示例代码。该代码通过定义BP类,并在初始化函数中构建了一个包含多个线性层和激活函数的BP神经网络模型。在训练过程中,定义了训练数据traindata和标签数据labeldata,并使用Adam优化器和MSE损失函数进行训练。 因此,PyTorch中的bp指的是在示例代码中创建的BP神经网络对象。它可以用于进行数据的预测,并可以通过调用bp.forward(x)来实现。在训练过程中,可以使用print(loss)或print(loss.data)来查看损失函数值的变化。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [PyTorch搭建BP神经网络识别MNIST数据集](https://blog.csdn.net/weixin_53065229/article/details/128245238)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [基于pytorch的BP神经网络实现](https://blog.csdn.net/weixin_60737527/article/details/126439288)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

七七喝椰奶

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值