文章目录
参考Andrew NG Coursera课程《Neural Networks and Deep Learning》
有任何问题请联系 languoxing@126.com
本文是深度学习入门教程序列的第一篇,通过介绍logistic回归的原理,进而引入一层神经网络的前向传播和后向传播公式,并提供了示例代码。
1.logistic回归详解
logistic回归模型是用来解决二分类问题的,因此我们将首先在概率的框架下描述什么是分类问题。分类问题的一般描述如下图所示:
用X代表输入空间,是输入向量的所有可能取值的集合,也叫特征空间;Y代表输出空间,是输出的所有可能取值的集合。 x ( i ) ∈ X x^{(i)}\in X x(i)∈X代表特征空间的一个样本, y ( i ) ∈ Y y^{(i)}\in Y y(i)∈Y代表其类别(标签)。分类问题的一般描述可总结为:利用已知标签的训练集 X t r a i n X_{train} Xtrain训练出一个模型,该模型包含一个映射关系 h : X → Y h:X\rightarrow Y h:X→Y, h h h应该能够对新的数据点 x ( m + 1 ) x^{(m+1)} x(m+1)预测其类别 y ( m + 1 ) y^{(m+1)} y(m+1),并且预测结果应该尽可能好。通常情况下,这种“好”的标准为正确率尽可能高。
以二分类问题为例,用0和1代表可能的类别,也即
Y
=
{
0
,
1
}
Y=\{0,1\}
Y={0,1}。我们从概率的框架下来讨论二分类问题:给定输入特征向量
x
x
x,我们希望估计出它分别属于两类的概率
P
(
y
=
0
∣
x
;
θ
)
P(y=0|x;\theta)
P(y=0∣x;θ)和
P
(
y
=
1
∣
x
;
θ
)
P(y=1|x;\theta)
P(y=1∣x;θ)。因为现在讨论的是二分类问题,可令
y
^
=
P
(
y
=
1
∣
x
;
θ
)
\hat y=P(y=1|x;\theta)
y^=P(y=1∣x;θ),那么只要估计出
y
^
\hat y
y^就可以了。在估计之前,需要选择合适形式的函数对各类别的后验概率建模,一种最简单也是最笨的方法就是令
y
^
=
w
T
x
+
b
\hat y=w ^T x+b
y^=wTx+b,也即线性回归。但是这样可能会导致
y
^
\hat y
y^的值大于1或者大于0,这和概率的定义相违背。因此,我们可以在线性回归的表达式前面加上一层sigmoid函数,也即
y
^
=
σ
(
ω
T
x
+
b
)
\hat y=\sigma\left(\omega ^T x+b\right)
y^=σ(ωTx+b)。sigmoid函数的表达式为:
σ
(
z
)
=
1
1
+
e
−
z
(1-1)
\sigma (z)=\frac{1}{1+e^{-z}}\\ \tag{1-1}
σ(z)=1+e−z1(1-1)
其函数图像为:
到此,我们得到了logistic回归模型:
y
^
=
1
1
+
e
(
−
θ
T
x
)
(1-2)
\hat y=\frac{1}{1+e^{(-\theta^Tx)}} \tag{1-2}
y^=1+e(−θTx)1(1-2)
注意,在
(
1
−
2
)
(1-2)
(1−2)中,我们将参数项b用
x
0
x_0
x0表示,这样能够写成更紧凑的形式。为了突出参数
θ
\theta
θ,我们用
h
θ
h_\theta
hθ表示公式
(
2
)
(2)
(2)中的函数,它代表了在已知特征
x
x
x的情况下,类别为
y
=
1
y=1
y=1的概率,也即
P
(
y
=
1
∣
x
;
θ
)
=
h
θ
P(y=1|x;\theta)=h_\theta
P(y=1∣x;θ)=hθ;显然,
P
(
y
=
0
∣
x
;
θ
)
=
1
−
h
θ
P(y=0|x;\theta)=1-h_\theta
P(y=0∣x;θ)=1−hθ
假设我们的目标是让分类的错误率最小(即最小错误率决策准则,这是最普遍的一种分类准则)。不难证明,最小化错误等价于最大化各类的后验概率。因此,若
(
1
−
2
)
(1-2)
(1−2)的值大于0.5,则判定为类别1;否则判定为类别0。
注意,logistic模型仍然是一个线性分类模型,因为它的决策面是 0 = w T x + b 0=w ^T x+b 0=wTx+b,我一个线性决策面。
2.损失函数的选取
选取好了模型后,接下来要选取损失函数(Loss function),然后在训练集上利用一定的算法(例如梯度下降法)最小化损失函数,从而确定 h θ h_{\theta} hθ中的参数 θ \theta θ。一种很自然的想法是选取 L ( y ^ , y ) = 1 2 ( y ^ − y ) 2 L\left(\hat y,y\right)=\frac{1}{2}\left(\hat y-y\right)^2 L(y^,y)=21(y^−y)2作为损失函数,但是这会导致在后面学习参数的过程中,最优问题不是一个凸问题。我们在这里采用极大似然估计的方法来推导出一个更合理的损失函数,并且该损失函数是凸函数。
2.1.最大化后验概率与极大似然估计
回忆一下极大似然估计的思想:对于可观测的样本
X
X
X及其观测值
Y
Y
Y,写出该观测值的概率表达式(记为
L
(
θ
)
L\left(\theta\right)
L(θ)),该概率表达式一般依赖于参数
θ
\theta
θ,极大似然估计的目标是寻找
θ
\theta
θ的估计值
θ
^
\hat \theta
θ^使得
L
(
θ
)
L\left(\theta\right)
L(θ)最大。
对于某一个观测样本
x
(
i
)
x^{(i)}
x(i)和观测值
y
(
i
)
y^{(i)}
y(i),有:
L
(
θ
)
=
P
(
y
(
i
)
∣
x
;
θ
)
=
(
h
θ
(
x
)
)
1
(
y
(
i
)
=
1
)
(
1
−
h
θ
(
x
)
)
1
(
y
(
i
)
=
0
)
=
(
h
θ
(
x
)
)
y
(
1
−
h
θ
(
x
)
)
1
−
y
(2-1)
\begin{aligned} L(\theta)&=P(y^{(i)}|x;\theta)\\ &=(h_\theta(x))^{1\left(y^{(i)}=1\right)}(1-h_\theta(x))^{1\left(y^{(i)}=0\right)}\\ &=(h_\theta(x))^y(1-h_\theta(x))^{1-y}\\ \tag{2-1} \end{aligned}
L(θ)=P(y(i)∣x;θ)=(hθ(x))1(y(i)=1)(1−hθ(x))1(y(i)=0)=(hθ(x))y(1−hθ(x))1−y(2-1)
L
(
θ
)
L(\theta)
L(θ)也叫似然函数。
对数似然函数为:
l
(
θ
)
=
log
L
(
θ
)
=
y
log
(
h
θ
(
x
)
)
+
(
1
−
y
)
log
(
1
−
h
θ
(
x
)
)
(2-2)
\begin{aligned} l(\theta) &=\log L(\theta) \\ &=y\log\left(h_\theta(x)\right)+(1-y)\log (1-h_\theta(x)) \tag{2-2} \end{aligned}
l(θ)=logL(θ)=ylog(hθ(x))+(1−y)log(1−hθ(x))(2-2)
(
2
−
2
)
(2-2)
(2−2)就是单个样本的损失函数。下面讨论训练集上的代价函数(cost function)。
对于多个观测样本
X
X
X和观测值
Y
Y
Y,似然函数可写成:
L
(
θ
)
=
P
(
Y
∣
X
;
θ
)
=
∏
i
=
1
m
P
(
y
(
i
)
∣
x
(
i
)
;
θ
)
=
∏
i
=
1
m
(
h
θ
(
x
(
i
)
)
)
y
(
i
)
(
1
−
h
θ
(
x
(
i
)
)
)
1
−
y
(
i
)
(2-3)
\begin{aligned} L(\theta) &=P(\boldsymbol{Y}|\boldsymbol{X};\theta) \\ &=\prod_{i=1}^{m}P(y^{(i)}|x^{(i)};\theta) \\ &=\prod_{i=1}^{m}(h_\theta(x^{(i)}))^{y^{(i)}}(1-h_\theta(x^{(i)}))^{1-y^{(i)}}\\ \tag{2-3} \end{aligned}
L(θ)=P(Y∣X;θ)=i=1∏mP(y(i)∣x(i);θ)=i=1∏m(hθ(x(i)))y(i)(1−hθ(x(i)))1−y(i)(2-3)
对数似然函数为:
l
(
θ
)
=
log
L
(
θ
)
=
∑
i
=
1
m
y
(
i
)
log
h
θ
(
x
(
i
)
)
+
(
1
−
y
(
i
)
)
log
(
1
−
h
θ
(
x
(
i
)
)
)
(2-4)
\begin{aligned} l(\theta) &=\log L(\theta) \\ &=\sum_{i=1}^{m}y^{(i)}\log h_\theta(x^{(i)})+(1-y^{(i)})\log (1-h_\theta(x^{(i)}))\\ \tag{2-4} \end{aligned}
l(θ)=logL(θ)=i=1∑my(i)loghθ(x(i))+(1−y(i))log(1−hθ(x(i)))(2-4)
因为对数似然函数需要最大化,而损失函数需要最小化,因此我们选择如下表达式作为损失函数:
J
(
θ
)
=
−
1
m
[
∑
i
=
1
m
y
(
i
)
log
h
θ
(
x
(
i
)
)
+
(
1
−
y
(
i
)
)
log
(
1
−
h
θ
(
x
(
i
)
)
)
]
(2-5)
J(\theta)=-\frac{1}{m}\left[\sum_{i=1}^{m}y^{(i)}\log h_\theta(x^{(i)})+(1-y^{(i)})\log (1-h_\theta(x^{(i)}))\right] \tag{2-5}
J(θ)=−m1[i=1∑my(i)loghθ(x(i))+(1−y(i))log(1−hθ(x(i)))](2-5)
(
2
−
5
)
(2-5)
(2−5)就是代价函数(cost function),它等价于对所有的
(
2
−
2
)
(2-2)
(2−2)取平均。
损失函数(loss function)是定义在单个样本上的,代价函数(cost function)是定义在多个样本上的。
3.梯度下降方法求解最优的参数 w w w和 b b b(一层神经网络)
利用logistic可以构造一个只含有输出层的神经网络,其结构图如下:
下面介绍其作为神经网络时的前向传播、反向传播过程,为后面理解更复杂的神经网络打下基础。
logistic回归的代价函数的凸函数,因此可以用梯度下降的方法求得全局最优值,并且与初始化的方式无关,一般利用零初始化。
w
:
=
w
−
α
∂
J
(
w
,
b
)
∂
w
b
:
=
b
−
α
∂
J
(
b
,
b
)
∂
b
(3-1)
\begin{aligned} w&:=w-\alpha\frac{\partial J(w,b)}{\partial w}\\ b&:=b-\alpha\frac{\partial J(b,b)}{\partial b}\\ \tag{3-1} \end{aligned}
wb:=w−α∂w∂J(w,b):=b−α∂b∂J(b,b)(3-1)
注意,Andrew NG在Cousera开设的深度学习课程中,求偏导用的是符号
d
d
d,我们这里不区分
∂
\partial
∂和
d
d
d。
下面我们讨论只有输入层和输出层(激活函数为sigmoid函数)的简单神经网络的前向传播和反向传播过程,也即logistic回归。
3.1.前向传播
X
=
[
x
(
1
)
,
x
(
2
)
,
⋯
,
x
(
m
)
]
Z
=
[
z
(
1
)
,
z
(
2
)
,
⋯
,
z
(
m
)
]
=
[
w
T
x
(
1
)
+
b
,
w
T
x
(
2
)
+
b
,
⋯
,
w
T
x
(
m
)
+
b
]
A
=
[
a
(
1
)
,
a
(
2
)
,
⋯
,
a
(
m
)
]
=
[
σ
(
a
(
1
)
)
,
σ
(
a
(
2
)
)
,
⋯
,
σ
(
a
(
m
)
)
]
Y
=
[
y
(
1
)
,
y
(
2
)
,
⋯
,
y
(
m
)
]
(3-2)
\begin{aligned} X&=\left[x^{(1)},x^{(2)},\cdots,x^{(m)}\right]\\ Z&=\left[z^{(1)},z^{(2)},\cdots,z^{(m)}\right]\\ &=[w^Tx^{(1)}+b,w^Tx^{(2)}+b,\cdots,w^Tx^{(m)}+b]\\ A&=\left[a^{(1)},a^{(2)},\cdots,a^{(m)}\right]\\ &=\left[\sigma\left(a^{(1)}\right),\sigma\left(a^{(2)}\right),\cdots,\sigma\left(a^{(m)}\right)\right]\\ Y&=\left[y^{(1)},y^{(2)},\cdots,y^{(m)}\right]\\ \tag{3-2} \end{aligned}
XZAY=[x(1),x(2),⋯,x(m)]=[z(1),z(2),⋯,z(m)]=[wTx(1)+b,wTx(2)+b,⋯,wTx(m)+b]=[a(1),a(2),⋯,a(m)]=[σ(a(1)),σ(a(2)),⋯,σ(a(m))]=[y(1),y(2),⋯,y(m)](3-2)
(
3
−
2
)
(3-2)
(3−2)中从上到下的顺序可以代表前向传播过程。
3.2.反向传播
先对求导公式进行一些化简:
d
a
=
d
L
(
a
,
y
)
d
a
=
−
y
a
+
1
−
y
1
−
a
(3-3)
\begin{aligned} \rm d\it a &= \frac{\rm{d}\it{L(a,y)}}{\rm{d}\it{a}}\\ &= -\frac{y}{a}+\frac{1-y}{1-a}\\ \tag{3-3} \end{aligned}
da=dadL(a,y)=−ay+1−a1−y(3-3)
d
z
=
d
L
(
a
,
y
)
d
z
=
d
L
(
a
,
y
)
d
a
⋅
d
a
d
z
=
(
−
y
a
+
1
−
y
1
−
a
)
⋅
a
(
1
−
a
)
=
a
−
y
(3-4)
\begin{aligned} \rm d\it z&= \frac{\rm{d}\it{L(a,y)}}{\rm{d}\it{z}}\\ &= \frac{\rm{d}\it{L(a,y)}}{\rm{d}\it{a}}\cdot \frac{\rm d \it a}{\rm d \it z}\\ &= \left(-\frac{y}{a}+\frac{1-y}{1-a}\right)\cdot a(1-a)\\ &=a-y \\ \tag{3-4} \end{aligned}
dz=dzdL(a,y)=dadL(a,y)⋅dzda=(−ay+1−a1−y)⋅a(1−a)=a−y(3-4)
有了
(
3
−
4
)
(3-4)
(3−4),我们就能得到
d
Z
=
A
−
Y
\rm{d}\it{Z}=A-Y
dZ=A−Y。因此反向传播过程如下:
d
Z
=
A
−
Y
d
w
=
1
m
⋅
X
⋅
d
Z
T
=
1
m
X
(
A
−
Y
)
T
d
b
=
1
m
⋅
∑
i
=
1
m
(
d
Z
(
i
)
)
(3-5)
\begin{aligned} \rm{d}\it{Z}&=A-Y\\ \rm d\it w&= \frac{1}{m}\cdot X\cdot \rm{d}\it{Z}^T\\ &=\frac{1}{m}X\left(A-Y\right)^T \\ \rm d\it b&= \frac{1}{m}\cdot\sum_{i=1}^{m}\left(\rm{d}\it{Z^{(i)}}\right) \\ \tag{3-5} \end{aligned}
dZdwdb=A−Y=m1⋅X⋅dZT=m1X(A−Y)T=m1⋅i=1∑m(dZ(i))(3-5)
注意,
(
3
−
5
)
(3-5)
(3−5)的流程可以理解为先对每一个样本求损失函数关于
z
z
z的梯度,并对每个样本求出
d
w
\rm{d}\it{w}
dw,在对所有样本的
d
w
\rm{d}\it{w}
dw球平均,因此有
1
/
m
1/m
1/m。
也可以对 m m m个样本的代价函数一次性直接求偏导,这需要一定的向量微分和复合函数微分的知识。这样的话,在 d Z \rm{d}\it{Z} dZ中就会有一个 1 / m 1/m 1/m,那么在求 d w \rm{d}\it{w} dw时就不用另外再加一个 1 / m 1/m 1/m了,并且形状可能互为转置,最终的结果是一样的。具体过程这里省略,有兴趣的读者可以自行推导。
4.单层神经网络示例代码
网络结构见图3.1
请点击下面的超链接跳转至github页面:
用logistic回归实现一层神经网络用来识别猫的图片
其中Logistic_Regression_with_a_Neural_Network_mindset.ipynb文件包含详细的注释和图示,但需要在jupyternotebook中运行;Logistic_Regression_with_a_Neural_Network_mindset.py文件可直接用“python”命令运行,两者的功能是一样的。
5.两层神经网络
5.1.前向传播
X
=
[
x
(
1
)
,
x
(
2
)
,
⋯
,
x
(
m
)
]
W
[
1
]
=
[
w
1
[
1
]
,
w
2
[
1
]
,
⋯
,
w
n
1
[
1
]
]
T
b
[
1
]
=
[
b
1
[
1
]
,
b
2
[
1
]
,
⋯
,
b
n
1
[
1
]
]
Z
[
1
]
=
W
[
1
]
X
+
b
[
1
]
A
[
1
]
=
g
[
1
]
(
Z
[
1
]
)
W
[
2
]
=
[
w
1
[
2
]
,
w
2
[
2
]
,
⋯
,
w
n
2
[
2
]
]
T
b
[
2
]
=
[
b
1
[
2
]
,
b
2
[
2
]
,
⋯
,
b
n
2
[
2
]
]
Z
[
2
]
=
W
[
2
]
A
[
1
]
+
b
[
2
]
A
[
2
]
=
g
[
2
]
(
Z
[
2
]
)
Y
=
[
y
(
1
)
,
y
(
2
)
,
⋯
,
y
(
m
)
]
(5-1)
\begin{aligned} X&=\left[x^{(1)},x^{(2)},\cdots,x^{(m)}\right]\\ W^{[1]}&=\left[w_1^{[1]},w_2^{[1]},\cdots,w_{n_1}^{[1]}\right]^{T}\\ b^{[1]}&=\left[b_1^{[1]},b_2^{[1]},\cdots,b_{n_1}^{[1]}\right]\\ Z^{[1]}&=W^{[1]}X+b^{[1]}\\ A^{[1]}&=g^{[1]}\left(Z^{[1]}\right)\\ W^{[2]}&=\left[w_1^{[2]},w_2^{[2]},\cdots,w_{n_2}^{[2]}\right]^{T}\\ b^{[2]}&=\left[b_1^{[2]},b_2^{[2]},\cdots,b_{n_2}^{[2]}\right]\\ Z^{[2]}&=W^{[2]}A^{[1]}+b^{[2]}\\ A^{[2]}&=g^{[2]}\left(Z^{[2]}\right)\\ Y&=\left[y^{(1)},y^{(2)},\cdots,y^{(m)}\right]\\ \tag{5-1} \end{aligned}
XW[1]b[1]Z[1]A[1]W[2]b[2]Z[2]A[2]Y=[x(1),x(2),⋯,x(m)]=[w1[1],w2[1],⋯,wn1[1]]T=[b1[1],b2[1],⋯,bn1[1]]=W[1]X+b[1]=g[1](Z[1])=[w1[2],w2[2],⋯,wn2[2]]T=[b1[2],b2[2],⋯,bn2[2]]=W[2]A[1]+b[2]=g[2](Z[2])=[y(1),y(2),⋯,y(m)](5-1)
(
5
−
1
)
(5-1)
(5−1)中从上到下的顺序可以代表前向传播过程。
5.2.反向传播
d
Z
[
2
]
=
A
[
2
]
−
Y
d
W
[
2
]
=
1
m
d
Z
[
2
]
A
[
1
]
T
d
b
[
2
]
=
1
m
n
p
.
s
u
m
(
d
Z
[
2
]
,
a
x
i
s
=
1
,
k
e
e
p
d
i
m
s
=
T
r
u
e
)
d
A
[
1
]
=
W
[
2
]
T
d
Z
[
2
]
d
Z
[
1
]
=
d
A
[
1
]
∗
g
[
1
]
′
(
Z
[
1
]
)
d
W
[
1
]
=
1
m
d
Z
[
1
]
A
[
0
]
T
d
b
[
1
]
=
1
m
n
p
.
s
u
m
(
d
Z
[
1
]
,
a
x
i
s
=
1
,
k
e
e
p
d
i
m
s
=
T
r
u
e
)
(5-2)
\begin{aligned} {\rm d}Z^{[2]}&=A^{[2]}-Y\\ {\rm d}W^{[2]}&=\frac{1}{m}{\rm d}Z^{[2]}A^{[1]\ T}\\ {\rm d}b^{[2]}&=\frac{1}{m}np.sum\left({\rm d}Z^{[2]},axis=1,keepdims=True\right)\\ {\rm d}A^{[1]}&={W^{[2]}}^T{\rm d}Z^{[2]}\\ {\rm d}Z^{[1]}&={\rm d}A^{[1]}*{g^{[1]}}'\left(Z^{[1]}\right)\\ {\rm d}W^{[1]}&=\frac{1}{m}{\rm d}Z^{[1]}A^{[0]\ T}\\ {\rm d}b^{[1]}&=\frac{1}{m}np.sum\left({\rm d}Z^{[1]},axis=1,keepdims=True\right)\\ \tag{5-2} \end{aligned}
dZ[2]dW[2]db[2]dA[1]dZ[1]dW[1]db[1]=A[2]−Y=m1dZ[2]A[1] T=m1np.sum(dZ[2],axis=1,keepdims=True)=W[2]TdZ[2]=dA[1]∗g[1]′(Z[1])=m1dZ[1]A[0] T=m1np.sum(dZ[1],axis=1,keepdims=True)(5-2)
(
5
−
2
)
(5-2)
(5−2)中从上到下的顺序可以代表前向传播过程。
5.3.关于参数的初始化
在单层神经网络(logistic回归)中,可以将参数初始化wie全零值;但是在多层神经网络中, W W W不能初始化为0,否则每一层的各个节点对应的 W W W会训练成一样的值; b b b可以初始化为0 W W W不能初始化为特别大,浅层网络一般是0.01量级;因为太大了的话,激活函数的自变量要么正向很大,要么负向很大,导致斜率趋近于0 ,收敛速度很慢。尤其是你使用 s i g m o i d sigmoid sigmoid或 t a n h tanh tanh激活函数。如果不使用这些激活函数,但是你是二分类问题(输出层是sigmoid函数),也会出现这个问题.
5.4.2层神经网络示例代码
对如下二维平面上的点进行分类:
网络结构如下:
点击下面的超链接查看完整代码:
2层神经网络的示例代码
其中Palnar_data_clf_with_one_hidden_layer.ipynb文件包含详细的注释和图示,但需要在jupyternotebook中运行;Palnar_data_clf_with_one_hidden_layer.py文件可直接用“python”命令运行,两者的功能是一样的。
6.深层神经网络
6.1.每层的参数及变量的尺寸
z [ l ] : ( n [ l ] , 1 ) a [ l ] : ( n [ l ] , 1 ) W [ l ] : ( n [ l ] , n [ l − 1 ] ) b [ l ] : ( n [ l ] , 1 ) d W [ l ] : ( n [ l ] , n [ l − 1 ] ) d b [ l ] : ( n [ l ] , 1 ) (6-1) \begin{aligned} z^{[l]}&:\left(n^{[l]},1\right)\\ a^{[l]}&:\left(n^{[l]},1\right)\\ W^{[l]}&:\left(n^{[l]},n^{[l-1]}\right)\\ b^{[l]}&:\left(n^{[l]},1\right)\\ dW^{[l]}&:\left(n^{[l]},n^{[l-1]}\right)\\ db^{[l]}&:\left(n^{[l]},1\right)\\ \tag{6-1} \end{aligned} z[l]a[l]W[l]b[l]dW[l]db[l]:(n[l],1):(n[l],1):(n[l],n[l−1]):(n[l],1):(n[l],n[l−1]):(n[l],1)(6-1)
6.2.前向传播递推公式
X = [ x ( 1 ) , x ( 2 ) , ⋯ , x ( m ) ] W [ l ] = [ w 1 [ l ] , w 2 [ l ] , ⋯ , w n l [ l ] ] T b [ l ] = [ b 1 [ l ] , b 2 [ l ] , ⋯ , b n l [ l ] ] Z [ l ] = W [ l ] A [ l − 1 ] + b [ l ] A [ l ] = g [ l ] ( Z [ l ] ) W [ l + 1 ] = [ w 1 [ l + 1 ] , w 2 [ l + 1 ] , ⋯ , w n l + 1 [ l + 1 ] ] T b [ l + 1 ] = [ b 1 [ l + 1 ] , b 2 [ l + 1 ] , ⋯ , b n 2 [ l + 1 ] ] Z [ l + 1 ] = W [ l + 1 ] A [ l ] + b [ l + 1 ] A [ l + 1 ] = g [ l + 1 ] ( Z [ l + 1 ] ) Y = [ y ( 1 ) , y ( 2 ) , ⋯ , y ( m ) ] (6-2) \begin{aligned} X&=\left[x^{(1)},x^{(2)},\cdots,x^{(m)}\right]\\ W^{[l]}&=\left[w_1^{[l]},w_2^{[l]},\cdots,w_{n_l}^{[l]}\right]^{T}\\ b^{[l]}&=\left[b_1^{[l]},b_2^{[l]},\cdots,b_{n_l}^{[l]}\right]\\ Z^{[l]}&=W^{[l]}A^{[l-1]}+b^{[l]}\\ A^{[l]}&=g^{[l]}\left(Z^{[l]}\right)\\ W^{[l+1]}&=\left[w_1^{[l+1]},w_2^{[l+1]},\cdots,w_{n_l+1}^{[l+1]}\right]^{T}\\ b^{[l+1]}&=\left[b_1^{[l+1]},b_2^{[l+1]},\cdots,b_{n_2}^{[l+1]}\right]\\ Z^{[l+1]}&=W^{[l+1]}A^{[l]}+b^{[l+1]}\\ A^{[l+1]}&=g^{[l+1]}\left(Z^{[l+1]}\right)\\ Y&=\left[y^{(1)},y^{(2)},\cdots,y^{(m)}\right]\\ \tag{6-2} \end{aligned} XW[l]b[l]Z[l]A[l]W[l+1]b[l+1]Z[l+1]A[l+1]Y=[x(1),x(2),⋯,x(m)]=[w1[l],w2[l],⋯,wnl[l]]T=[b1[l],b2[l],⋯,bnl[l]]=W[l]A[l−1]+b[l]=g[l](Z[l])=[w1[l+1],w2[l+1],⋯,wnl+1[l+1]]T=[b1[l+1],b2[l+1],⋯,bn2[l+1]]=W[l+1]A[l]+b[l+1]=g[l+1](Z[l+1])=[y(1),y(2),⋯,y(m)](6-2)
6.3.反向传播递推公式
d Z [ l ] = d A [ l ] ∗ g [ l ] ′ ( Z [ l ] ) d W [ l ] = 1 m d Z [ l ] A [ l − 1 ] T d b [ l ] = 1 m n p . s u m ( d Z [ l ] , a x i s = 1 , k e e p d i m s = T r u e ) d A [ l − 1 ] = W [ l ] T d Z [ l ] (6-3) \begin{aligned} {\rm d}Z^{[l]}&={\rm d}A^{[l]}*{g^{[l]}}'\left(Z^{[l]}\right)\\ {\rm d}W^{[l]}&=\frac{1}{m}{\rm d}Z^{[l]}A^{[l-1]\ T}\\ {\rm d}b^{[l]}&=\frac{1}{m}np.sum\left({\rm d}Z^{[l]},axis=1,keepdims=True\right)\\ {\rm d}A^{[l-1]}&={W^{[l]}}^T{\rm d}Z^{[l]}\\ \tag{6-3} \end{aligned} dZ[l]dW[l]db[l]dA[l−1]=dA[l]∗g[l]′(Z[l])=m1dZ[l]A[l−1] T=m1np.sum(dZ[l],axis=1,keepdims=True)=W[l]TdZ[l](6-3)
6.4.多层神经网络的示例代码
点击如下超链接。
对比了2层神经网络和5层神经网络在对猫分类时的性能
Deep Neural Network - Application.py
Deep Neural Network - Application.ipynb