前向传播与反向传播
***1***这是一个神经网络的图:
这是一个常见的三层神经网络的基本构成,Layer L1是输入层,Layer L2是隐含层,Layer L3是隐含层,当我们输入x1,x2,x3等数据时,通过隐含层的计算、转换,输出你的期望,当你的输入和输出是一样的时候,成为自编码模型(Auto-Encoder),而当你输入和输出是不一致的时候,也就是我们常说的人工神经网络。
其中 i1: 0.02 i2: 0.04 截距b1:0.4 b2:0.7 期望的输出数据o1:0.5 o2:0.9
目的是为了能的到 o1:0.5 o2:0.9的期望的值,计算出 w1, w2, w3…w8的权重值、
先假设这些值
w1=0.25
w2=0.25
w3=0.15
w4=0.20
w5=0.30
w6=0.35
w7=0.40
w8=0.35
2.1 前向传播
2.1.1 输入层到隐含层
反向传播