误差反向传播:前馈神经网络
过多的原理不在赘述,前向传播,反向传播的梯度下降和原理部分都可以在这篇文章中找到。
代码
import numpy as np
import matplotlib.pyplot as plt
def sigmoid(z):
a = 1 / (1 + np.exp(-z))
return a
def forward_propagate(x1, x2, y1, y2, w1, w2, w3, w4, w5, w6, w7, w8): # 正向传播
in_h1 = w1 * x1 + w3 * x2
out_h1 = sigmoid(in_h1)
in_h2 = w2 * x1 + w4 * x2
out_h2 = sigmoid(in_h2)
in_o1 = w5 * out_h1 + w7 * out_h2
out_o1 = sigmoid(in_o1)
in_o2 = w6 * out_h1 + w8 * out_h2
out_o2 = sigmoid(in_o2)
error = (1 / 2) * (out_o1 - y1) ** 2 + (1 / 2) * (out_o2 - y2) ** 2
return out_o1, out_o2, out_h1, out_h2, error
def back_propagate(out_o1, out_o2, out_h1, out_h2): # 反向传播
d_o1 = out_o1 - y1
d_o2 = out_o2 - y2
d_w5 = d_o1 * out_o1 * (1 - out_o1) * out_h1
d_w7 = d_o1 * out_o1 * (1 - out_o1) * out_h2
d_w6 = d_o2 * out_o2 * (1 - out_o2) * out_h1
d_w8 = d_o2 * out_o2 * (1 - out_o2) * out_h2
d_w1 = (d_w5 + d_w6) * out_h1 * (1 - out_h1) * x1
d_w3 = (d_w5 + d_w6) * out_h1 * (1 - out_h1) * x2
d_w2 = (d_w7 + d_w8) * out_h2 * (1 - out_h2) * x1
d_w4 = (d_w7 + d_w8) * out_h2 * (1 - out_h2) * x2
return d_w1, d_w2, d_w3, d_w4, d_w5, d_w6, d_w7, d_w8
def update_w(step,w1, w2, w3, w4, w5, w6, w7, w8): #梯度下降,更新权值
w1 = w1 - step * d_w1
w2 = w2 - step * d_w2
w3 = w3 - step * d_w3
w4 = w4 - step * d_w4
w5 = w5 - step * d_w5
w6 = w6 - step * d_w6
w7 = w7 - step * d_w7
w8 = w8 - step * d_w8
return w1, w2, w3, w4, w5, w6, w7, w8
if __name__ == "__main__":
w1, w2, w3, w4, w5, w6, w7, w8 = 0.2, -0.4, 0.5, 0.6, 0.1, -0.5, -0.3, 0.8 # 可以给随机值,为配合PPT,给的指定值
x1, x2 = 0.5, 0.3 # 输入值
y1, y2 = 0.23, -0.07 # 正数可以准确收敛;负数不行。why? 因为用sigmoid输出,y1, y2 在 (0,1)范围内。
N = 100 # 迭代次数
step = 10 # 步长
print("输入值:x1, x2;",x1, x2, "输出值:y1, y2:", y1, y2)
eli = []
lli = []
for i in range(N):
print("=====第" + str(i) + "轮=====")
# 正向传播
out_o1, out_o2, out_h1, out_h2, error = forward_propagate(x1, x2, y1, y2, w1, w2, w3, w4, w5, w6, w7, w8)
print("正向传播:", round(out_o1, 5), round(out_o2, 5))
print("损失函数:", round(error, 2))
# 反向传播
d_w1, d_w2, d_w3, d_w4, d_w5, d_w6, d_w7, d_w8 = back_propagate(out_o1, out_o2, out_h1, out_h2)
# 梯度下降,更新权值
w1, w2, w3, w4, w5, w6, w7, w8 = update_w(step,w1, w2, w3, w4, w5, w6, w7, w8)
eli.append(i)
lli.append(error)
plt.plot(eli, lli)
plt.ylabel('Loss')
plt.xlabel('w')
plt.show()
步长,迭代次数影响
#输入和输出
x1, x2 = 0.5, 0.3
y1, y2 = 0.23, -0.07
更换步长和次数
step=10,N=10,损失函数稳定在0.02
step=10,N=50,损失函数稳定在0.01
step=10,N=1,损失函数稳定在0.12,显然这远远达不到我们得了理想要求
一般来说适当的步长下增加迭代次数,适当的迭代次数下增加步长都可以降低损失函数。
步长过大的影响
N = 500 # 迭代次数
step = 10000
反而不利于反向传播,损失函数稳定在一个较大的值
我们尝试将迭代次数减少N=5,就可以发现,第二次之后正向传播的值就不在改变。
通过分析可以发现,步长过大,会导致更新权值的时候更新成负值,导致通过激活函数之后正向传播的值恒定了。这应该和激活函数的曲线有关。
对收敛的探究
探究1:当输出值有负数
x1, x2 = 0.5, 0.3
y1, y2 = 0.23, -0.07
#step=10,N=100,
我们发现损失函数稳定在0.0,这显然是不可能的,因为我们的激活函数simiod的取值范围是(0,1),正向传播只可能出现正值。那为什么会出现这种结果,
经过检查发现损失函数是四舍五入,限制了数字的位数
print("损失函数:", round(error, 2))
修改过后,就出现有值了。
print("损失函数:", round(error, 4))
探究2:当输出值为正
x1, x2 = 0.5, 0.3 # 输入值
y1, y2 = 0.23, 0.07
当我们修改y的值
可以看到经过99轮后结果非常的接近
探究3:输入值对收敛的影响
x1, x2 = 0, 0 # 输入值
y1, y2 = 0.23, 0.07
在修改了输入值之后,对结果的影响并不大,显然反向传播对输入值不做限制,但是多次迭代后的记过可能不一样
运行200轮,更接近了
参考
【2021-2022 春学期】人工智能-作业2:例题程序复现
【人工智能导论:模型与算法】MOOC 8.3 误差后向传播(BP) 例题 编程验证
损失函数、梯度下降法与反向传播算法