Learning representations by back-propagating errors原文解读

反向传播的原文是:
1986年的《Learning representations by back-propagating errors》

x j = ∑ i y i w j i ( 1 ) x_j=\sum_iy_iw_{ji}(1) xj=iyiwji(1)
y j = 1 1 + e − x i ( 2 ) y_j=\frac{1}{1+e^{-x_i}}(2) yj=1+exi1(2)
这个就是Sigmoid函数

E = 1 2 ∑ c ∑ j ( y j , c − d j , c ) 2 ( 3 ) E=\frac{1}{2}\sum_c\sum_j(y_{j,c}-d_{j,c})^2(3) E=21cj(yj,cdj,c)2(3)

∂ E ∂ y j = y j − d j ( 4 ) \frac{∂E}{∂y_j}=y_j-d_j(4) yjE=yjdj(4)
∂ E ∂ x j = ∂ E ∂ y j y j ( 1 − y j ) ( 5 ) \frac{∂E}{∂x_j}=\frac{∂E}{∂y_j}y_j(1-y_j)(5) xjE=yjEyj(1yj)(5)

∂ E ∂ w j i = ∂ E ∂ x j ⋅ ∂ x j ∂ w j i = ∂ E ∂ x j y i ( 6 ) \frac{∂E}{∂w_{ji}}=\frac{∂E}{∂x_j}·\frac{∂x_j}{∂w_{ji}}=\frac{∂E}{∂x_j}y_i(6) wjiE=xjEwjixj=xjEyi(6)

∂ E ∂ y i = ∑ j ∂ E ∂ x j ⋅ w j i ( 7 ) \frac{∂E}{∂y_i}=\sum_j\frac{∂E}{∂x_j}·w_{ji}(7) yiE=jxjEwji(7)

Δ w = − ε ∂ E ∂ w ( 8 ) \Delta w=-\varepsilon\frac{∂E}{∂w}(8) Δw=εwE(8)
Δ w ( t ) = − ε ∂ E ∂ w ( t ) + α Δ w ( t − 1 ) ( 9 ) \Delta w(t)=-\varepsilon\frac{∂E}{∂w(t)}+\alpha\Delta w(t-1)(9) Δw(t)=εw(t)E+αΔw(t1)(9)

原文没有提及b是怎么变化的,另外参考了下文献:
https://blog.csdn.net/qq_29762941/article/details/80343185
Δ b = − ε ∂ E ∂ b \Delta b=-\varepsilon\frac{∂E}{∂b} Δb=εbE

##########如何记忆######################

首先记住这个神经元:

在这里插入图片描述

然后就是下面的一大堆
∂ E ∂ w j i = ∂ E ∂ y j ⋅ ∂ y j ∂ x j ⋅ ∂ x j ∂ w j i \frac{∂E}{∂w_{ji}}=\frac{∂E}{∂y_j}·\frac{∂y_j}{∂x_j}·\frac{∂x_j}{∂w_{ji}} wjiE=yjExjyjwjixj
上面三个因子怎么计算呢?
∂ E ∂ y j 的 计 算 : 1 2 ( d j − y j ) 2 , d j 是 实 际 的 类 别 标 签 , y j 是 预 测 结 果 \frac{∂E}{∂y_j}的计算:\frac{1}{2}(d_j-y_j)^2,d_j是实际的类别标签,y_j是预测结果 yjE:21(djyj)2,dj,yj剩下就是求导操作。

∂ y j ∂ x j 的 计 算 : 就 是 对 式 ( 2 ) 进 行 求 导 \frac{∂y_j}{∂x_j}的计算:就是对式(2)进行求导 xjyj(2)

∂ x j ∂ w j i 的 计 算 : 这 里 的 x j 不 要 误 解 成 是 整 个 神 经 元 的 输 入 端 , 而 是 激 活 函 数 的 输 入 端 , 所 以 这 个 的 结 果 就 是 y i \frac{∂x_j}{∂w_{ji}}的计算:这里的x_j不要误解成是整个神经元的输入端,而是激活函数的输入端,所以这个的结果就是y_i wjixjxjyi

hidden unit 就是放激活函数的。
也就是后期论文中常见的隐藏层。

怎么个传播法呢?
最后就是 w j i = − ε △ w + w j i w_{ji}=-\varepsilon\triangle w+w_{ji} wji=εw+wji

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值