深度学习之神经网络和反向传播算法

本文转自《零基础入门深度学习》系列文章,阅读原文请移步这里

在这篇文章中,我们将把这些单独的单元按照一定的规则相互连接在一起形成神经网络,从而奇迹般的获得了强大的学习能力。我们还将介绍这种网络的训练算法:反向传播算法。最后,我们依然用代码实现一个神经网络。如果您能坚持到本文的结尾,将会看到我们用自己实现的神经网络去识别手写数字。现在请做好准备,您即将双手触及到深度学习的大门。

一、神经网络是啥

神经网络其实就是按照一定规则连接起来的多个神经元。下图展示了一个全连接(full connected, FC)神经网络,
在这里插入图片描述通过观察上面的图,我们可以发现它的规则包括:

  • 神经元按照来布局。最左边的层叫做输入层,负责接收输入数据;最右边的层叫输出层,我们可以从这层获取神经网络输出数据。输入层和输出层之间的层叫做隐藏层,因为它们对于外部来说是不可见的。
  • 同一层的神经元之间没有连接。
  • 第N层的每个神经元和第N-1层的所有神经元相连(这就是full connected的含义),第N-1层神经元的输出就是第N层神经元的输入。
  • 每个连接都有一个权值

上面这些规则定义了全连接神经网络的结构。事实上还存在很多其它结构的神经网络,比如卷积神经网络(CNN)、循环神经网络(RNN),他们都具有不同的连接规则。

二、神经元

神经元和感知器本质上是一样的,只不过我们说感知器的时候,它的激活函数是阶跃函数;而当我们说神经元时,激活函数往往选择为sigmoid函数或tanh函数。如下图所示:
在这里插入图片描述
计算一个神经元的输出的方法和计算一个感知器的输出是一样的。假设神经元的输入是向量 x ⃗ \vec{x} x ,权重向量是 w ⃗ \vec{w} w (偏置项是 w 0 w_0 w0),激活函数是sigmoid函数,则其输出: y = s i g m o i d ( w ⃗ T ∗ x ⃗ )        ( 式 1 ) y=sigmoid(\vec w^T*\vec x)\space\space\space\space\space\space (式1) y=sigmoid(w Tx )      (1)sigmoid函数的定义如下: s i g m o i d ( x ) = 1 1 + e − x sigmoid(x)=\frac{1}{1+e^{-x}} sigmoid(x)=1+ex1将其带入前面的式子,得到 y = 1 1 + e w ⃗ T ∗ x y=\frac{1}{1+e^{\vec w^T*x}} y=1+ew Tx1sigmoid函数是一个非线性函数,值域是(0,1)。函数图像如下图所示
在这里插入图片描述
sigmoid函数的导数是: 令 y = s i g m o i d ( x ) ; 则 y ′ = y ( 1 − y ) 令y=sigmoid(x);则y'=y(1-y) y=sigmoid(x);y=y(1y)可以看到,sigmoid函数的导数非常有趣,它可以用sigmoid函数自身来表示。这样,一旦计算出sigmoid函数的值,计算它的导数的值就非常方便。

三、计算神经网络的输出

神经网络实际上就是一个输入向量 x ⃗ \vec{x} x 到输出向量 y ⃗ \vec{y} y 的函数,即: y ⃗ = f n e t w o r k ( x ⃗ ) \vec{y}=f_{network}(\vec x) y =fnetwork(x )根据输入计算神经网络的输出,需要首先将输入向量 x ⃗ \vec{x} x 的每个元素 x i x_i xi的值赋给神经网络的输入层的对应神经元,然后根据(式1)依次向前计算每一层的每个神经元的值,直到最后一层输出层的所有神经元的值计算完毕。最后,将输出层每个神经元的值串在一起就得到了输出向量 y ⃗ \vec{y} y
接下来举一个例子来说明这个过程,我们先给神经网络的每个单元写上编号。
在这里插入图片描述
如上图,输入层有三个节点,我们将其依次编号为1、2、3;隐藏层的4个节点,编号依次为4、5、6、7;最后输出层的两个节点编号为8、9。因为我们这个神经网络是全连接网络,所以可以看到每个节点都和上一层的所有节点有连接。比如,我们可以看到隐藏层的节点4,它和输入层的三个节点1、2、3之间都有连接,其连接上的权重分别为 w 41 , w 42 , w 43 w_{41},w_{42},w_{43} w41,w42,w43。那么,我们怎样计算节点4的输出值 a 4 a_4 a4呢?
为了计算节点4的输出值,我们必须先得到其所有上游节点(也就是节点1、2、3)的输出值。节点1、2、3是输入层的节点,所以,他们的输出值就是输入向量 x ⃗ \vec{x} x 本身。按照上图画出的对应关系,可以看到节点1、2、3的输出值分别是 x 1 , x 2 , x 3 x_1,x_2,x_3 x1,x2,x3。我们要求输入向量的维度和输入层神经元个数相同,而输入向量的某个元素对应到哪个输入节点是可以自由决定的,你偏非要把 x 1 x_1 x1赋值给节点2也是完全没有问题的,但这样除了把自己弄晕之外,并没有什么价值。
一旦我们有了节点1、2、3的输出值,我们就可以根据(式1)计算节点4的输出值 a 4 a_4 a4 a 4 = s i g m o i d ( w ⃗ T ∗ x ⃗ ) a_4=sigmoid(\vec w^T*\vec x) a4=sigmoid(w Tx )                                                        = s i g m o i d ( w 41 ∗ x 1 + w 42 ∗ x 2 + w 43 ∗ x 3 + w 4 b ) \space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space=sigmoid(w_{41}*x_1+w_{42}*x_2+w_{43}*x_3+w_{4b})                                                       =sigmoid(w41x1+w42x2+w43x3+w4b)上式的 w 4 b w_{4b} w4b是节点4的偏置项,图中没有画出来。而 w 41 , w 42 , w 43 w_{41},w_{42},w_{43} w41,w42,w43分别为节点1、2、3到节点4连接的权重,在给权重 w j i w_{ji} wji编号时,我们把目标节点的编号 j j j放在前面,把源节点的编号 i i i放在后面。
同样,我们可以继续计算出节点5、6、7的输出值 a 5 , a 6 , a 7 a_5,a_6,a_7 a5,a6,a7。这样,隐藏层的4个节点的输出值就计算完成了,我们就可以接着计算输出层的节点8的输出值 y 1 y_1 y1 y 1 = s i g m o i d ( w ⃗ T ∗ a ⃗ ) y_1=sigmoid(\vec w^T*\vec a) y1=sigmoid(w Ta )                                                                          = s i g m o i d ( w 84 ∗ a 4 + w 85 ∗ a 5 + w 86 ∗ a 6 + w 87 ∗ a 7 + w 8 b ) \space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space=sigmoid(w_{84}*a_4+w_{85}*a_5+w_{86}*a_6+w_{87}*a_7+w_{8b})                                                                         =sigmoid(w84a4+w85a5+w86a6+w87a7+w8b)同理,我们还可以计算出 y 2 y_2 y2的值。这样输出层所有节点的输出值计算完毕,我们就得到了在输入向量 x ⃗ = [ x 1 x 2 x 3 ] \vec x=\begin{bmatrix} x_1 \\ x_2 \\ x_3 \end{bmatrix} x =x1x2x3时,神经网络的输出向量 y ⃗ = [ y 1 y 2 ] \vec y=\begin{bmatrix} y_1 \\ y_2 \end{bmatrix} y =[y1y2]。这里我们也看到,输出向量的维度和输出层神经元个数相同

四、神经网络的矩阵表示

神经网络的计算如果用矩阵来表示会很方便(当然逼格也更高),我们先来看看隐藏层的矩阵表示。
首先我们把隐藏层4个节点的计算依次排列出来: a 4 = s i g m o i d ( w 41 ∗ x 1 + w 42 ∗ x 2 + w 43 ∗ x 3 + w 4 b ) a_4=sigmoid(w_{41}*x_1+w_{42}*x_2+w_{43}*x_3+w_{4b}) a4=sigmoid(w41x1+w42x2+w43x3+w4b) a 5 = s i g m o i d ( w 51 ∗ x 1 + w 52 ∗ x 2 + w 53 ∗ x 3 + w 5 b ) a_5=sigmoid(w_{51}*x_1+w_{52}*x_2+w_{53}*x_3+w_{5b}) a5=sigmoid(w51x1+w52x2+w53x3+w5b) a 6 = s i g m o i d ( w 61 ∗ x 1 + w 62 ∗ x 2 + w 63 ∗ x 3 + w 6 b ) a_6=sigmoid(w_{61}*x_1+w_{62}*x_2+w_{63}*x_3+w_{6b}) a6=sigmoid(w61x1+w62x2+w63x3+w6b) a 7 = s i g m o i d ( w 71 ∗ x 1 + w 72 ∗ x 2 + w 73 ∗ x 3 + w 5 b ) a_7=sigmoid(w_{71}*x_1+w_{72}*x_2+w_{73}*x_3+w_{5b}) a7=sigmoid(w71x1+w72x2+w73x3+w5b)接着,定义网络的输入向量 x ⃗ \vec x x 和隐藏层每个节点的权重向量 w ⃗ j \vec w_j w j。令 x ⃗ = [ x 1 x 2 x 3 ] \vec x=\begin{bmatrix} x_1 \\ x_2 \\ x_3 \end{bmatrix} x =x1x2x3                           w ⃗ 4 = [ w 41 , w 42 , w 43 , w 4 b ] \space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\vec w_4=\begin{bmatrix} w_{41} ,w_{42},w_{43},w_{4b} \end{bmatrix}                          w 4=[w41,w42,w43,w4b]                           w ⃗ 5 = [ w 51 , w 52 , w 53 , w 5 b ] \space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\vec w_5=\begin{bmatrix} w_{51} ,w_{52},w_{53},w_{5b} \end{bmatrix}                          w 5=[w51,w52,w53,w5b]                           w ⃗ 6 = [ w 61 , w 62 , w 63 , w 6 b ] \space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\vec w_6=\begin{bmatrix} w_{61} ,w_{62},w_{63},w_{6b} \end{bmatrix}                          w 6=[w61,w62,w63,w6b]                           w ⃗ 7 = [ w 71 , w 72 , w 73 , w 7 b ] \space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\vec w_7=\begin{bmatrix} w_{71} ,w_{72},w_{73},w_{7b} \end{bmatrix}                          w 7=[w71,w72,w73,w7b]         f = s i g m o i d \space\space\space\space\space\space\space f=sigmoid        f=sigmoid代入到前面的一组式子,得到: a 4 = f ( w ⃗ 4 ∗ x ⃗ ) a_4=f(\vec w_4*\vec x) a4=f(w 4x ) a 5 = f ( w ⃗ 5 ∗ x ⃗ ) a_5=f(\vec w_5*\vec x) a5=f(w 5x ) a 6 = f ( w ⃗ 6 ∗ x ⃗ ) a_6=f(\vec w_6*\vec x) a6=f(w 6x ) a 7 = f ( w ⃗ 7 ∗ x ⃗ ) a_7=f(\vec w_7*\vec x) a7=f(w 7x )现在,我们把上述计算 a 4 , a 5 , a 6 , a 7 a_4,a_5,a_6,a_7 a4,a5,a6,a7的四个式子写到一个矩阵里面,每个式子作为矩阵的一行,就可以利用矩阵来表示它们的计算了。令 a ⃗ = [ a 4 a 5 a 6 a 7 ] , W = [ w ⃗ 4 w ⃗ 5 w ⃗ 6 w ⃗ 7 ] = [ w 41 , w 42 , w 43 , w 4 b w 51 , w 52 , w 53 , w 5 b w 61 , w 62 , w 63 , w 6 b w 71 , w 72 , w 73 , w 7 b ] , f ( [ x 1 x 2 x 3 . . . ] ) = [ f ( x 1 ) f ( x 2 ) f ( x 3 ) . . . ] \vec a=\begin{bmatrix} a_4 \\ a_5 \\ a_6 \\ a_7 \end{bmatrix}, W=\begin{bmatrix} \vec w_4 \\ \vec w_5 \\ \vec w_6 \\ \vec w_7 \end{bmatrix}=\begin{bmatrix} w_{41},w_{42},w_{43},w_{4b} \\ w_{51},w_{52},w_{53},w_{5b} \\ w_{61},w_{62},w_{63},w_{6b} \\ w_{71},w_{72},w_{73},w_{7b} \end{bmatrix},f(\begin{bmatrix} x_1 \\ x_2 \\ x_3 \\ . \\ . \\ . \end{bmatrix})=\begin{bmatrix} f(x_1) \\ f(x_2) \\ f(x_3) \\ . \\ . \\ . \end{bmatrix} a =a4a5a6a7,W=w 4w 5w 6w 7=w41,w42,w43,w4bw51,w52,w53,w5bw61,w62,w63,w6bw71,w72,w73,w7b,f(x1x2x3...)=f(x1)f(x2)f(x3)...带入前面的一组式子,得到 a ⃗ = f ( W ∗ x ⃗ )          ( 式 2 ) \vec a=f(W*\vec x)\space\space\space\space\space\space\space\space(式2) a =f(Wx )        (2)在(式2)中, f f f是激活函数,在本例中是 s i g m o i d sigmoid sigmoid函数; W W W是某一层的权重矩阵; x ⃗ \vec x x 是某层的输入向量; a ⃗ \vec a a 是某层的输出向量。(式2)说明神经网络的每一层的作用实际上就是先将输入向量左乘一个数组进行线性变换,得到一个新的向量,然后再对这个向量逐元素应用一个激活函数。
每一层的算法都是一样的。比如,对于包含一个输入层,一个输出层和三个隐藏层的神经网络,我们假设其权重矩阵分别为 W 1 , W 2 , W 3 , W 4 W_1,W_2,W_3,W_4 W1,W2,W3,W4,每个隐藏层的输出分别是 a ⃗ 1 , a ⃗ 2 , a ⃗ 3 \vec a_1,\vec a_2,\vec a_3 a 1,a 2,a 3,神经网络的输入为 x ⃗ \vec x x ,神经网络的输入为 y ⃗ \vec y y ,如下图所示:

在这里插入图片描述则每一层的输出向量的计算可以表示为: a ⃗ 1 = f ( W 1 ∗ x ⃗ ) \vec a_1=f(W_1*\vec x) a 1=f(W1x ) a ⃗ 2 = f ( W 2 ∗ a ⃗ 1 ) \vec a_2=f(W_2*\vec a_1) a 2=f(W2a 1) a ⃗ 3 = f ( W 3 ∗ a ⃗ 2 ) \vec a_3=f(W_3*\vec a_2) a 3=f(W3a 2) y ⃗ = f ( W 4 ∗ a ⃗ 3 ) \vec y=f(W_4*\vec a_3) y =f(W4a 3)这就是神经网络输出值的计算方法。

五、神经网络的训练

现在,我们需要知道一个神经网络的每个连接上的权值是如何得到的。我们可以说神经网络是一个模型,那么这些权值就是模型的参数,也就是模型要学习的东西。然而,一个神经网络的连接方式、网络的层数、每层的节点数这些参数,则不是学习出来的,而是人为事先设置的。对于这些人为设置的参数,我们称之为超参数(Hyper-Parameters)。

接下来,我们将要介绍神经网络的训练算法:反向传播算法

六、反向传播算法(Back Propagation)

我们首先直观的介绍反向传播算法,最后再来介绍这个算法的推导。当然读者也可以完全跳过推导部分,因为即使不知道如何推导,也不影响你写出来一个神经网络的训练代码。事实上,现在神经网络成熟的开源实现多如牛毛,除了练手之外,你可能都没有机会需要去写一个神经网络。

我们假设每个训练样本为 ( x ⃗ , t ⃗ ) (\vec x,\vec t) (x ,t ),其中向量 x ⃗ \vec x x 是训练样本的特征,而 t ⃗ \vec t t 是样本的目标值。

在这里插入图片描述
首先,我们根据上一节介绍的算法,用样本的特征 x ⃗ \vec x x ,计算出神经网络中每个隐藏层节点的输出 a i a_i ai,以及输出层每个节点的输出 y i y_i yi

然后,我们按照下面的方法计算出每个节点的误差项 δ i \delta_i δi

  • 对于输出层节点 i i i δ i = y i ( 1 − y i ) ( t i − y i )       ( 式 3 ) \delta_i=y_i(1-y_i)(t_i-y_i)\space\space\space\space\space(式3) δi=yi(1yi)(tiyi)     3其中, δ i \delta_i δi是节点 i i i的误差项, y i y_i yi是节点 i i i输出值 t i t_i ti是样本对应于节点 i i i目标值。举个例子,根据上图,对于输出层节点8来说,它的输出值是 y 1 y_1 y1,而样本的目标值是 t 1 t_1 t1,带入上面的公式得到节点8的误差项 δ 8 \delta_8 δ8应该是: δ 8 = y 1 ( 1 − y 1 ) ( t 1 − y 1 ) \delta_8=y_1(1-y_1)(t_1-y_1) δ8=y1(1y1)(t1y1)
  • 对于隐藏层节点 δ i = a i ( 1 − a i ) ∑ k ∈ o u t p u t s w k i δ k         ( 式 4 ) \delta_i=a_i(1-a_i)\sum_{k \isin outputs}w_{ki}\delta_k \space\space\space\space\space\space\space(式4) δi=ai(1ai)koutputswkiδk       (4)其中, a i a_i ai是节点 i i i的输出值, w k i w_{ki} wki是节点 i i i到它的下一层节点 k k k的连接的权重, δ k \delta_k δk是节点 i i i的下一层节点 k k k的误差项。例如,对于隐藏层节点4来说,计算方法如下: δ 4 = a 4 ( 1 − a 4 ) ( w 84 δ 8 + w 94 δ 9 ) \delta_4=a_4(1-a_4)(w_{84}\delta_8+w_{94}\delta_9) δ4=a4(1a4)(w84δ8+w94δ9)最后,更新每个连接上的权值: w j i ← w j i + η δ j x j i        ( 式 5 ) w_{ji} \gets w_{ji} + \eta\delta_jx_{ji}\space\space\space\space\space\space(式5) wjiwji+ηδjxji      (5)其中, w j i w_{ji} wji是节点 i i i到节点 j j j的权重, η \eta η是一个成为学习速率的常数, δ j \delta_j δj是节点 j j j的误差项, x j i x_{ji} xji是节点 i i i传递给节点 j j j的输入。例如,权重 w 84 w_{84} w84的更新方法如下: w 84 ← w 84 + η δ 8 a 4 w_{84} \gets w_{84} + \eta\delta_8a_{4} w84w84+ηδ8a4类似的,权重 w 41 w_{41} w41的更新方法如下: w 41 ← w 41 + η δ 4 x 1 w_{41} \gets w_{41} + \eta\delta_4x_{1} w41w41+ηδ4x1偏置项的输入值永远为1。例如,节点4的偏置项 w 4 b w_{4b} w4b应该按照下面的方法计算: w 4 b ← w 4 b + η δ 4 w_{4b} \gets w_{4b} + \eta\delta_4 w4bw4b+ηδ4

我们已经介绍了神经网络每个节点误差项的计算和权重更新方法。显然,计算一个节点的误差项,需要先计算每个与其相连的下一层节点的误差项。这就要求误差项的计算顺序必须是从输出层开始,然后反向依次计算每个隐藏层的误差项,直到与输入层相连的那个隐藏层。这就是反向传播算法的名字的含义。当所有节点的误差项计算完毕后,我们就可以根据(式5)来更新所有的权重。

七、反向传播算法的推导

反向传播算法其实就是链式求导法则的应用。然而,这个如此简单且显而易见的方法,却是在Roseblatt提出感知器算法将近30年之后才被发明和普及的。对此,Bengio这样回应道:

很多看似显而易见的想法只有在事后才变得显而易见。

接下来,我们用链式求导法则来推导反向传播算法,也就是上一小节的式3、式4、式5。

前方高能预警——接下来是数学公式重灾区,读者可以酌情阅读,不必强求。

按照机器学习的通用套路,我们先确定神经网络的目标函数,然后用随机梯度下降优化算法去求目标函数最小值时的参数值。

我们取网络所有输出层节点的误差平方和作为目标函数: E d ≡ 1 2 ∑ i ∈ o u t p u t s ( t i − y i ) 2 E_d\equiv\frac{1}{2}\sum_{i\isin outputs}(t_i-y_i)^2 Ed21ioutputs(tiyi)2其中, E d E_d Ed表示是样本 d d d的误差。
然后,我们用《深度学习之线性单元和梯度下降》中介绍的随机梯度下降算法对目标函数进行优化: w j i = w j i − η ∂ E d ∂ w j i w_{ji}=w_{ji}-\eta\frac{\partial E_d}{\partial w_{ji}} wji=wjiηwjiEd随机梯度下降算法也就是需要求出误差 E d E_d Ed对于每个权重 w j i w_{ji} wji的偏导数(也就是梯度),怎么求呢?
在这里插入图片描述
观察上图,我们发现权重 w j i w_{ji} wji仅能通过影响节点 j j j的输入值影响网络的其它部分,设 n e t j net_j netj是节点 j j j加权输入,即 n e t j = w ⃗ j ∗ x ⃗ j = ∑ j w j i x j i net_j=\vec w_j*\vec x_j=\sum_jw_{ji}x_{ji} netj=w jx j=jwjixji E d E_d Ed n e t j net_j netj的函数,而 n e t j net_j netj w j i w_{ji} wji的函数。根据链式求导法则,可以得到: ∂ E d ∂ w j i = ∂ E d ∂ n e t j ∗ ∂ n e t j ∂ w j i \frac{\partial E_d}{\partial w_{ji}}=\frac{\partial E_d}{\partial net_{j}}*\frac{\partial net_j}{\partial w_{ji}} wjiEd=netjEdwjinetj                  = ∂ E d ∂ n e t j ∂ ∑ i w j i x j i ∂ w j i \space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space=\frac{\partial E_d}{\partial net_{j}}\frac{\partial \textstyle\sum_iw_{ji}x_{ji}}{\partial w_{ji}}                 =netjEdwjiiwjixji = ∂ E d ∂ n e t j x j i =\frac{\partial E_d}{\partial net_{j}}x_{ji} =netjEdxji上式中, x j i x_{ji} xji是节点 i i i传递给节点 j j j的输入值,也就是节点 i i i的输出值。
对于 ∂ E d ∂ n e t j \frac{\partial E_d}{\partial net_j} netjEd的推导,需要区分输出层隐藏层两种情况。

1.输出层权值训练

对于输出层来说, n e t j net_j netj仅能通过节点 j j j的输出值 y j y_j yj来影响网络其它部分,也就是说 E d E_d Ed y j y_j yj的函数,而 y j y_j yj n e t j net_j netj的函数,其中 y j = s i g m o i d ( n e t j ) y_j=sigmoid(net_j) yj=sigmoid(netj)。所以我们可以再次使用链式求导法则: ∂ E d ∂ n e t j = ∂ E d ∂ y j ∗ ∂ y j ∂ n e t j \frac{\partial E_d}{\partial net_j}=\frac{\partial E_d}{\partial y_j}*\frac{\partial y_j}{\partial net_j} netjEd=yjEdnetjyj考虑上式第一项: ∂ E d ∂ y j = ∂ ∂ y j 1 2 ∑ i ∈ o u t p u t s ( t i − y i ) 2 \frac{\partial E_d}{\partial y_j}=\frac{\partial}{\partial y_j}\frac{1}{2}\sum_{i \isin outputs}(t_i-y_i)^2 yjEd=yj21ioutputs(tiyi)2 = ∂ ∂ y j 1 2 ( t j − y j ) 2     =\frac{\partial}{\partial y_j}\frac{1}{2}(t_j-y_j)^2\space\space\space =yj21(tjyj)2    = − ( t j − y j )             =-(t_j-y_j) \space\space\space\space\space\space\space\space\space\space\space =(tjyj)           考虑上式第二项: ∂ y j ∂ n e t j = ∂ s i g m o i d ( n e t j ) ∂ n e t j = y j ( 1 − y j ) \frac{\partial y_j}{\partial net_j}=\frac{\partial sigmoid(net_j)}{\partial net_j}=y_j(1-y_j) netjyj=netjsigmoid(netj)=yj(1yj)将第一项和第二项带入,得到: ∂ E d ∂ n e t j = − ( t j − y j ) y j ( 1 − y j ) \frac{\partial E_d}{\partial net_j}=-(t_j-y_j)y_j(1-y_j) netjEd=(tjyj)yj(1yj)如果令 δ j = − ∂ E d ∂ n e t j \delta_j=-\frac{\partial E_d}{\partial net_j} δj=netjEd,也就是一个节点的误差项 δ \delta δ是网络误差对这个节点输入的偏导数的相反数。带入上式,得到: δ j = ( t j − y j ) y j ( 1 − y j ) \delta_j=(t_j-y_j)y_j(1-y_j) δj=(tjyj)yj(1yj)上式就是(式3)。
将上述推导带入随机梯度下降公式,得到: w j i ← w j i − η ∂ E d ∂ w j i w_{ji} \gets w_{ji}-\eta\frac{\partial E_d}{\partial w_{ji}} wjiwjiηwjiEd                                     = w j i + η ( t j − y j ) y j ( 1 − y j ) x j i \space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space=w_{ji}+\eta(t_j-y_j)y_j(1-y_j)x_{ji}                                    =wji+η(tjyj)yj(1yj)xji        = w j i + η δ j x j i \space\space\space\space\space\space=w_{ji}+\eta\delta_jx_{ji}       =wji+ηδjxji上式就是(式5)。

2. 隐藏层权值训练

现在我们要推导出隐藏层的 ∂ E d ∂ n e t j \frac{\partial E_d}{\partial net_j} netjEd
首先,我们需要定义节点 j j j的所有直接下游节点的集合 D o w n s t r e a m ( j ) Downstream(j) Downstream(j)。例如,对于节点4来说,它的直接下游节点是节点8、节点9。可以看到 n e t j net_j netj只能通过影响 D o w n s t r e a m ( j ) Downstream(j) Downstream(j)再影响 E d E_d Ed。设 n e t k net_k netk是节点 j j j的下游节点的输入,则 E d E_d Ed n e t k net_k netk的函数,而 n e t k net_k netk n e t j net_j netj的函数。因为 n e t k net_k netk有多个,我们应用全导数公式,可以做出如下推导: ∂ E d ∂ n e t j = ∑ k ∈ D o w n s t r e a m ( j ) ∂ E d ∂ n e t k ∂ n e t k ∂ n e t j \frac{\partial E_d}{\partial net_j}=\sum_{k\isin Downstream(j)}\frac{\partial E_d}{\partial net_k}\frac{\partial net_k}{\partial net_j} netjEd=kDownstream(j)netkEdnetjnetk          = ∑ k ∈ D o w n s t r e a m ( j ) − δ k ∂ n e t k ∂ n e t j \space\space\space\space\space\space\space\space=\sum_{k\isin Downstream(j)}-\delta_k\frac{\partial net_k}{\partial net_j}         =kDownstream(j)δknetjnetk                    = ∑ k ∈ D o w n s t r e a m ( j ) − δ k ∂ n e t k ∂ a j ∂ a j ∂ n e t j \space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space=\sum_{k\isin Downstream(j)}-\delta_k\frac{\partial net_k}{\partial a_j}\frac{\partial a_j}{\partial net_j}                   =kDownstream(j)δkajnetknetjaj                = ∑ k ∈ D o w n s t r e a m ( j ) − δ k w k j ∂ a j ∂ n e t j \space\space\space\space\space\space\space\space\space\space\space\space\space\space=\sum_{k\isin Downstream(j)}-\delta_kw_{kj}\frac{\partial a_j}{\partial net_j}               =kDownstream(j)δkwkjnetjaj                      = ∑ k ∈ D o w n s t r e a m ( j ) − δ k w k j a j ( 1 − a j ) \space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space=\sum_{k\isin Downstream(j)}-\delta_kw_{kj}a_j(1-a_j)                     =kDownstream(j)δkwkjaj(1aj)                      = − a j ( 1 − a j ) ∑ k ∈ D o w n s t r e a m ( j ) δ k w k j \space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space\space=-a_j(1-a_j)\sum_{k\isin Downstream(j)}\delta_kw_{kj}                     =aj(1aj)kDownstream(j)δkwkj因为 δ j = − ∂ E d ∂ n e t j \delta_j=-\frac{\partial E_d}{\partial net_j} δj=netjEd,带入上式得到: δ j = a j ( 1 − a j ) ∑ k ∈ D o w n s t r e a m ( j ) δ k w k j \delta_j=a_j(1-a_j)\sum_{k\isin Downstream(j)}\delta_kw_{kj} δj=aj(1aj)kDownstream(j)δkwkj上式就是(式4)。

——数学公式警报解除——

至此,我们已经推导出了反向传播算法。需要注意的是,我们刚刚推导出的训练规则是根据激活函数是sigmoid函数、平方和误差、全连接网络、随机梯度下降优化算法。如果激活函数不同、误差计算方式不同、网络连接结构不同、优化算法不同,则具体的训练规则也会不一样。但是无论怎样,训练规则的推导方式都是一样的,应用链式求导法则进行推导即可。

八、神经网络的实现代码

现在,我们要根据前面的算法,实现一个基本的全连接神经网络,这并不需要太多代码。我们在这里依然采用面向对象设计。

首先,我们先做一个基本的模型:
在这里插入图片描述
如上图,可以分解出5个领域对象来实现神经网络:

  • Network 神经网络对象,提供API接口。它由若干层对象组成以及连接对象组成。
  • Layer 层对象,由多个节点组成。
  • Node 节点对象计算和记录节点自身的信息(比如输出值 a a a、误差项 δ \delta δ等),以及与这个节点相关的上下游的连接。
  • Connection 每个连接对象都要记录该连接的权重。
  • Connections 仅仅作为Connection的集合对象,提供一些集合操作。

Node实现如下:

class Node(object):
    def __init__(self, layer_index, node_index):
        self.layer_index = layer_index
        self.node_index = node_index
        self.downstream = []
        self.upstream = []
        self.output = 0
        self.delta = 0

    def set_output(self, output):
        self.output = output

    def append_downstream_connection(self, conn):
        self.downstream.append(conn)

    def append_upstream_connection(self, conn):
        self.upstream.append(conn)

    def calc_output(self):
        output = reduce(lambda ret, conn: ret + conn.upstream_node.output * conn.weight, self.upstream, 0)
        self.output = sigmoid(output)

    def calc_hidden_layer_delta(self):
        downstream_delta = reduce(lambda ret, conn: ret + conn.upstream_node.delta * conn.weight, self.downstream, 0.0)
        self.delta = self.output * (1 - self.output) * downstream_delta

    def calc_output_layer_delta(self, label):
        self.delta = self.output * (1 - self.output) * (label - self.output)

    def __str__(self):
        node_str = '%u-%u: output: %f delta: %f' % (self.layer_index, self.node_index, self.output, self.delta)
        downstream_str = reduce(lambda ret, conn: ret + '\n\t' + str(conn), self.downstream, '')
        upstream_str = reduce(lambda ret, conn: ret + '\n\t' + str(conn), self.upstream, '')
        return node_str + '\n\tdownstream:' + downstream_str + '\n\tupstream:' + upstream_str

ConstNode对象,为了实现一个输出恒为1的节点(计算偏置项 w b w_b wb时需要)

class ConstNode(object):
    def __init__(self, layer_index, node_index):
        self.layer_index = layer_index
        self.node_index = node_index
        self.downstream = []
        self.output = 1

    def append_downstream_connection(self, conn):
        self.downstream.append(conn)

    def calc_hidden_layer_delta(self):
        downstream_delta = reduce(lambda ret, conn: ret + conn.downstream_node.delta * conn.weight, self.downstream, 0.0)
        self.delta = self.output * (1 - self.output) * downstream_delta

    def __str__(self):
        node_str = '%u-%u: output: 1' % (self.layer_index, self.node_index)
        downstream_str = reduce(lambda ret, conn: ret + '\n\t' + str(conn), self.downstream, '')
        return node_str + '\n\tdownstream:' + downstream_str

Layer对象,负责初始化一层。此外,作为Node的集合对象,提供对Node集合的操作。

class Layer(object):
    def __init__(self, layer_index, node_count):
        self.layer_index = layer_index
        self.nodes = []
        for i in range(node_count):
            self.nodes.append(Node(layer_index, i))
        self.nodes.append(ConstNode(layer_index, node_count))

    def set_output(self, data):
        for i in range(len(data)):
            self.nodes[i].set_output(data[i])

    def calc_output(self):
        for node in self.nodes[:-1]:
            node.calc_output()

    def dump(self):
        for node in self.nodes:
            print(node)

Connection对象,主要职责是记录连接的权重,以及这个连接所关联的上下游节点。

class Connection(object):
    def __init__(self, upstream_node, downstream_node):
        self.upstream_node = upstream_node
        self.downstream_node = downstream_node
        self.weight = random.uniform(-0.1, 0.1)
        self.gradient = 0.0

    def calc_gradient(self):
        self.gradient = self.downstream_node.delta * self.upstream_node.output

    def update_weight(self, rate):
        self.calc_gradient()
        self.weight += rate * self.gradient

    def get_gradient(self):
        return self.gradient

    def __str__(self):
        return '(%u-%u) -> (%u-%u) = %f' % (
            self.upstream_node.layer_index,
            self.upstream_node.node_index,
            self.downstream_node.layer_index,
            self.downstream_node.node_index,
            self.weight)

Connections对象,提供Connection集合操作。

class Connections(object):
    def __init__(self):
        self.connections = []

    def add_connection(self, connection):
        self.connections.append(connection)

    def dump(self):
        for conn in self.connections:
            print(conn)

Network对象,提供API。

class Network(object):
    def __init__(self, layers):
        self.connections = Connections()
        self.layers = []
        layer_count = len(layers)
        node_count = 0
        for i in range(layer_count):
            self.layers.append(Layer(i, layers[i]))

        for layer in range(layer_count - 1):
            connections = [Connection(upstream_node, downstream_node)
                           for upstream_node in self.layers[layer].nodes
                           for downstream_node in self.layers[layer + 1].nodes[:-1]]
            for conn in connections:
                self.connections.add_connection(conn)
                conn.downstream_node.append_upstream_connection(conn)
                conn.upstream_node.append_downstream_connection(conn)

    def train(self, labels, data_set, rate, epoch):
        for i in range(epoch):
            for d in range(len(data_set)):
                self.train_one_sample(labels[d], data_set[d], rate)

    def train_one_sample(self, label, sample, rate):
        self.predict(sample)
        self.calc_delta(label)
        self.update_weight(rate)

    def calc_delta(self, label):
        output_nodes = self.layers[-1].nodes
        for i in range(len(label)):
            output_nodes[i].calc_output_layer_delta(label[i])
        for layer in self.layers[-2::-1]:
            for node in layer.nodes:
                node.calc_hidden_layer_delta()

    def update_weight(self, rate):
        for layer in self.layers[:-1]:
            for node in layer.nodes:
                for conn in node.downstream:
                    conn.update_weight(rate)

    def calc_gradient(self):
        for layer in self.layers[:-1]:
            for node in layer.nodes:
                for conn in node.downstream:
                    conn.calc_gradient()

    def get_gradient(self, label, sample):
        self.predict(sample)
        self.calc_delta(label)
        self.calc_gradient()

    def predict(self, sample):
        self.layers[0].set_output(sample)
        for i in range(1, len(self.layers)):
            self.layers[i].calc_output()
        return list(map(lambda node: node.output, self.layers[-1].nodes[:-1]))

    def dump(self):
        for layer in self.layers:
            layer.dump()

至此,实现了一个基本的全连接神经网络。

九、梯度检查

怎么保证自己写的神经网络没有BUG呢?事实上这是一个非常重要的问题。一方面,千辛万苦想到一个算法,结果效果不理想,那么是算法本身错了还是代码实现错了呢?定位这种问题肯定要花费大量的时间和精力。另一方面,由于神经网络的复杂性,我们几乎无法事先知道神经网络的输入和输出,因此类似TDD(测试驱动开发)这样的开发方法似乎也不可行。
办法还是有滴,就是利用梯度检查来确认程序是否正确。梯度检查的思路如下:
对于梯度下降算法: w j i ← w j i − η ∂ E d ∂ w j i w_{ji}\gets w_{ji}-\eta \frac{\partial E_d}{\partial w_{ji}} wjiwjiηwjiEd来说,这里关键之处在于 ∂ E d ∂ w j i \frac{\partial E_d}{\partial w_{ji}} wjiEd的计算一定要正确,而它是 E d E_d Ed w j i w_{ji} wji的偏导数。而根据导数的定义: f ′ ( θ ) = lim ⁡ ϵ → 0 f ( θ + ϵ ) − f ( θ − ϵ ) 2 ϵ f'(\theta)=\lim_{\epsilon \to 0}\frac{f(\theta+\epsilon)-f(\theta-\epsilon)}{2\epsilon} f(θ)=ϵ0lim2ϵf(θ+ϵ)f(θϵ)对于任意 θ \theta θ的导数值,我们都可以用等式右边来近似计算。我们把 E d E_d Ed看做是 w j i w_{ji} wji的函数,即 E d ( w j i ) E_d(w_{ji}) Ed(wji),那么根据导数定义, ∂ E d ( w j i ) ∂ w j i \frac{\partial E_d(w_{ji})}{\partial w_{ji}} wjiEd(wji)应该等于: ∂ E d ( w j i ) ∂ w j i = lim ⁡ ϵ → 0 f ( w j i + ϵ ) − f ( w j i − ϵ ) 2 ϵ \frac{\partial E_d(w_{ji})}{\partial w_{ji}}=\lim_{\epsilon \to 0}\frac{f(w_{ji}+\epsilon)-f(w_{ji}-\epsilon)}{2\epsilon} wjiEd(wji)=ϵ0lim2ϵf(wji+ϵ)f(wjiϵ)如果把 ϵ \epsilon ϵ设置为一个很小的数(比如 1 0 − 4 10^{-4} 104),那么上式可以写成: ∂ E d ( w j i ) ∂ w j i ≈ f ( w j i + ϵ ) − f ( w j i − ϵ ) 2 ϵ            ( 式 6 ) \frac{\partial E_d(w_{ji})}{\partial w_{ji}} \approx \frac{f(w_{ji}+\epsilon)-f(w_{ji}-\epsilon)}{2\epsilon} \space\space\space\space\space\space\space\space\space\space(式6) wjiEd(wji)2ϵf(wji+ϵ)f(wjiϵ)          (6)我们就可以利用(式6),来计算梯度 ∂ E d ∂ w j i \frac{\partial E_d}{\partial w_{ji}} wjiEd的值,然后同我们神经网络代码中计算出来的梯度值进行比较。如果两者的差别非常的小,那么就说明我们的代码是正确的。

下面是梯度检查的代码。如果我们想检查参数 w j i w_{ji} wji的梯度是否正确,我们需要以下几个步骤:

  1. 首先使用一个样本对神经网络进行训练,这样就能获得每个权重的梯度。
  2. w j i w_{ji} wji加上一个很小的值( 1 0 − 4 10^{-4} 104),重新计算神经网络在这个样本 d d d下的 E d + E_{d+} Ed+
  3. w j i w_{ji} wji减上一个很小的值( 1 0 − 4 10^{-4} 104),重新计算神经网络在这个样本 d d d下的 E d − E_{d-} Ed
  4. 根据(式6)计算出期望的梯度值,和第一步获得的梯度值进行比较,它们应该几乎想等(至少4位有效数字相同)。

当然,我们可以重复上面的过程,对每个权重 w j i w_{ji} wji都进行检查。也可以使用多个样本重复检查。

def gradient_check(network, sample_feature, sample_label):
    """
    梯度检查
    :param network: 神经网络对象
    :param sample_feature: 样本的特征
    :param sample_label: 样本的标签
    :return:
    """
    # 计算网络误差
    network_error = lambda vec1, vec2: 0.5 * reduce(lambda a, b: a + b, map(lambda v: (v[0] - v[1]) * (v[0] - v[1]), zip(vec1, vec2)))
    # 获取网络在当前样本下每个连接的梯度
    network.get_gradient(sample_feature, sample_label)

    # 对每个权重做梯度检查
    for conn in network.connections.connections:
        # 获取指定连接的梯度
        actual_gradient = conn.calc_gradient
        # 增加一个很小的值,计算网络的误差
        epsilon = 0.0001
        conn.weight += epsilon
        error1 = network_error(network.predict(sample_feature), sample_label)

        # 减去一个很小的值,计算网络的误差
        conn.weight -= 2 * epsilon   # 刚才加过了一次,因此这里需要减去2倍
        error2 = network_error(network.predict(sample_feature), sample_label)

        # 根据式6计算期望的梯度值
        expected_gradient = (error2 - error1) / (2 * epsilon)

        # 打印
        print('expected gradient: \t%f\nactual gradient: \t%f' % (expected_gradient, actual_gradient))

至此,会推导、会实现、会抓BUG,你已经摸到深度学习的大门了。接下来还需要不断的实践,我们用刚刚写过的神经网络去识别手写数字。

十、向量化编程

在经历了漫长的训练之后,我们可能会想到,肯定有更好的办法!是的,程序员们,现在我们需要告别面向对象编程了,转而去使用另外一种更适合深度学习算法的编程方式:向量化编程。主要有两个原因:一个是我们事实上并不需要真的去定义Node、Connection这样的对象,直接把数学计算实现了就可以了;另一个原因,是底层算法库会针对向量运算做优化(甚至有专用的硬件,比如GPU),程序效率会提升很多。所以,在深度学习的世界里,我们总会想法设法的把计算表达为向量的形式。我相信优秀的程序员不会把自己拘泥于某种(自己熟悉的)编程范式上,而会去学习并使用最为合适的范式。
下面,我们用向量化编程的方法,重新实现前面的全连接神经网络
首先,我们需要把所有的计算都表达为向量的形式。对于全连接神经网络来说,主要有三个计算公式。
前向计算,我们发现(式2)已经是向量化的表达了: a ⃗ = σ ( W ∗ x ⃗ ) \vec a=\sigma(W*\vec x) a =σ(Wx )上式中的 σ \sigma σ表示sigmoid函数。
反向计算,我们需要把(式3)和(式4)使用向量来表示: δ ⃗ = y ⃗ ( 1 − y ⃗ ) ( t ⃗ − y ⃗ )       ( 式 7 ) \vec \delta=\vec y(1-\vec y)(\vec t - \vec y)\space\space\space\space\space(式7) δ =y (1y )(t y )     (7) δ ( l ) ⃗ = a ⃗ ( l ) ( 1 − a ⃗ ( l ) ) W T δ ( l + 1 )       ( 式 8 ) \vec{\delta^{(l)}}=\vec a^{(l)}(1-\vec a^{(l)})W^T\delta^{(l+1)}\space\space\space\space\space(式8) δ(l) =a (l)(1a (l))WTδ(l+1)     (8)在(式8)中, δ ( l ) \delta^{(l)} δ(l)表示第 l l l层的误差项; W T W^T WT表示矩阵 W W W的转置。
我们还需要权重数组W和偏置项b的梯度计算的向量化表示。也就是需要把(式5)使用向量化表示: w j i ← w j i + η δ j x j i       ( 式 5 ) w_{ji}\gets w_{ji}+\eta\delta_jx_{ji}\space\space\space\space\space(式5) wjiwji+ηδjxji     (5)其对应的向量化表示为: W ← W + η δ ⃗ x ⃗ T       ( 式 9 ) W\gets W+\eta\vec\delta\vec x^T\space\space\space\space\space(式9) WW+ηδ x T     (9)更新偏置项的向量化表示为: b ⃗ ← b ⃗ + η δ ⃗       ( 式 10 ) \vec b \gets \vec b+\eta\vec\delta\space\space\space\space\space(式10) b b +ηδ      (10)现在,我们根据上面几个公式,重新实现一个类:FullConnectedLayer。它实现了全连接层的前向和后向计算:

class FullConnectedLayer(object):
    def __init__(self, input_size, output_size, activator):
        """
        构造函数
        :param input_size: 本层输入向量的维度
        :param output_size: 本层输出向量的维度
        :param activator: 激活函数
        """
        self.input_size = input_size
        self.output_size = output_size
        self.activator = activator
        # 权重数组W
        self.W = np.random.uniform(-0.1, 0.1, (output_size, input_size))
        # 偏置项b
        self.b = np.zeros((output_size, 1))
        # 输出向量
        self.output = np.zeros((output_size, 1))

    def forward(self, input_array):
        """
        前向计算
        :param input_array:  输入向量,维度必须等于input_size
        :return:
        """
        # 式2
        self.input = input_array
        self.output = self.activator.forward(np.dot(self.W, input_array) + self.b)

    def backward(self, delta_array):
        """
        反向计算W和b的梯度
        :param delta_array: 从上一层传递过来的误差项
        :return:
        """
        self.delta = self.activator.backward(self.input) * np.dot(self.W.T, delta_array)
        self.W_grad = np.dot(delta_array, self.input.T)
        self.b_grad = delta_array

    def update(self, learning_rate):
        """
        使用梯度下降算法更新权重
        :param learning_rate:
        :return:
        """
        self.W += learning_rate * self.W_grad
        self.b += learning_rate * self.b_grad

上面这个类一举取代了原先的Layer、Node、Connection等类,不但代码更加容易理解,而且运行速度也快了几百倍。
现在,我们对Network类稍作修改,使之用到FullConnectedLayer:

# Sigmoid激活函数类
class SigmoidActivator(object):
    def forward(self, weighted_input):
        return 1.0 / (1.0 + np.exp(-weighted_input))

    def backward(self, output):
        return output * (1 - output)

# 神经网络类
class Network(object):
    def __init__(self, layers):
        self.layers = []
        for i in range(len(layers) - 1):
            self.layers.append(
                FullConnectedLayer(layers[i], layers[i+1], SigmoidActivator())
            )

    def predict(self, sample):
        """
        使用神经网络实现预测
        :param sample: 输入样本
        :return:
        """
        output = sample
        for layer in self.layers:
            layer.forward(output)
            output = layer.output
        return output

    def train(self, labels, data_set, rate, epoch):
        """
        训练函数
        :param labels: 样本标签
        :param data_set: 输入样本
        :param rate: 学习速率
        :param epoch: 训练轮数
        :return:
        """
        for i in range(epoch):
            for d in range(len(data_set)):
                self.train_one_sample(labels[d], data_set[d], rate)

    def train_one_sample(self, label, sample, rate):
        self.predict(sample)
        self.calc_gradient(label)
        self.update_weight(rate)

    def calc_gradient(self, label):
        delta = self.layers[-1].activator.backward(self.layers[-1].output) * (label - self.layers[-1].output)
        for layer in self.layers[::-1]:
            layer.backward(delta)
            delta = layer.delta
        return delta

    def update_weight(self, rate):
        for layer in self.layers:
            layer.update(rate)

现在,Network类也清爽多了

十一、神经网络实战——手写数字识别

针对这个任务,我们采用业界非常流行的MNIST数据集。MNIST大约有60000个手写字母的训练样本,我们使用它训练我们的神经网络,然后再用训练好的网络去识别手写数字。

手写数字识别是个比较简单的任务,数字只可能是0-9中的一个,这是个10分类问题。

1.超参数的确定

我们首先需要确定网络的层数和每层的节点数。关于第一个问题,实际上并没有什么理论化的方法,大家都是根据经验来拍,如果没有经验的话就随便拍一个。然后,你可以多试几个值,训练不同层数的神经网络,看看哪个效果最好就用哪个。嗯,现在你可能明白为什么说深度学习是个手艺活了,有些手艺很让人无语,而有些手艺还是很有技术含量的。

不过,有些基本道理我们还是明白的,我们知道网络层数越多越好,也知道层数越多训练难度越大。对于全连接网络,隐藏层最好不要超过三层。那么,我们可以先试试仅有一个隐藏层的神经网络效果怎么样。毕竟模型小的话,训练起来也快些(刚开始玩模型的时候,都希望快点看到结果)。

输入层节点数是确定的。因为MNIST数据集每个训练数据是28*28的图片,共784个像素,因此,输入层节点数应该是784,每个像素对应一个输入节点。

输出层节点数也是确定的。因为是10分类,我们可以用10个节点,每个节点对应一个分类。输出层10个节点中,输出最大值的那个节点对应的分类,就是模型的预测结果。

隐藏层节点数量是不好确定的,从1到100万都可以。下面有几个经验公式: m = n + l + α m=\sqrt{n+l}+\alpha m=n+l +α m = log ⁡ 2 n            m=\log_2n \space\space\space\space\space\space\space\space\space\space m=log2n           m = n l               m=\sqrt{nl}\space\space\space\space\space\space\space\space\space\space\space\space\space m=nl               m : 隐藏层节点数     m:\footnotesize{\textbf{隐藏层节点数}}\space\space\space m隐藏层节点数    n : 输入层节点数     n:\footnotesize{\textbf{输入层节点数}}\space\space\space n输入层节点数    l : 输出层节点数      l:\footnotesize{\textbf{输出层节点数}}\space\space\space \space l:输出层节点数         α : 1到10之间的常数 \space\space\space\alpha:\footnotesize{\textbf{1到10之间的常数}}    α:110之间的常数因此,我们可以先根据上面的公式设置一个隐藏层节点数。如果有时间,我们可以设置不同的节点数,分别训练,看看哪个效果最好就用哪个。我们先拍一个,设隐藏层节点数为300吧。
对于3层 784 ∗ 300 ∗ 10 784*300*10 78430010的全连接网络,总共有 300 ∗ ( 784 + 1 ) + 10 ∗ ( 300 + 1 ) = 238510 300*(784+1)+10*(300+1)=238510 300(784+1)+10(300+1)=238510个参数!神经网络之所以强大,是它提供了一种非常简单的方法去实现大量的参数。目前百亿参数、千亿样本的超大规模神经网络也是有的。因为MNIST只有6万个训练样本,参数太多了很容易过拟合,效果反而不好。

2.模型的训练和评估

MNIST数据集包含10000个测试样本。我们先用60000个训练样本训练我们的网络,然后再用测试样本对网络进行测试,计算识别错误率:
错误率 = 错误预测样本数 总样本数 \scriptsize{\textbf{{错误率}}}=\frac{\scriptsize{\textbf{错误预测样本数}}}{\scriptsize{\textbf{总样本数}}} =总样本数错误预测样本数我们每训练10轮,评估一次准确率。当准确率开始下降时(出现了过拟合)终止训练。

3.代码实现

首先,我们需要把MNIST数据集处理为神经网络能够接受的形式。MNIST训练集的文件格式可以参考官方网站,这里不在赘述。每个训练样本是一个28*28的图像,我们按照行优先,把它转化为一个784维的向量。每个标签是0-9的值,我们将其转换为一个10维的one-hot向量:如果标签值为,我们就把向量的第维(从0开始编号)设置为0.9,而其它维设置为0.1。例如,向量[0.1,0.1,0.9,0.1,0.1,0.1,0.1,0.1,0.1,0.1]表示值2。

下面是处理MNIST数据的代码:

class Loader(object):
    def __init__(self, path, count):
        """
        初始化加载器
        :param path: 数据文件路径
        :param count: 文件中的样本个数
        """
        self.path = path
        self.count = count

    def get_file_content(self):
        """
        读取文件内容
        :return:
        """
        with open(self.path, "rb") as f:
            content = f.read()
        return content

    def to_int(self, byte):
        """
        将unsigned byte字符转换为整数
        :param byte:
        :return:
        """
        return struct.unpack("B", byte)[0]


# 图像数据加载器
class ImageLoader(Loader):
    def get_picture(self, content, index):
        """
        内部函数,从文件中获取图像
        :param content:
        :param index:
        :return:
        """
        start = index * 28 * 28 * 16
        picture = []
        for i in range(28):
            picture.append([])
            for j in range(28):
                picture[i].append(self.to_int(content[start + i * 28 + j]))
        return picture

    def get_one_sample(self, picture):
        """
        内部函数,将图像转化为样本的输入向量
        :param picture:
        :return:
        """
        sample = []
        for i in range(28):
            for j in range(28):
                sample.append(picture[i][j])
        return sample

    def load(self):
        """
        加载数据文件,获得全部样本的输入向量
        :return:
        """
        content = self.get_file_content()
        data_set = []
        for index in range(self.count):
            data_set.append(self.get_one_sample(self.get_picture(content, index)))
        return data_set


# 标签数据加载器
class LabelLoader(Loader):
    def load(self):
        """
        加载数据文件,获得全部样本的标签向量
        :return:
        """
        content = self.get_file_content()
        labels = []
        for index in range(self.count):
            labels.append(self.norm(content[index + 8]))
        return labels

    def norm(self, label):
        """
        内部函数,将一个值转换为10维标签向量
        :param label:
        :return:
        """
        label_vec = []
        label_value = self.to_int(label)
        for i in range(10):
            if i == label_value:
                label_vec.append(0.9)
            else:
                label_vec.append(0.1)
        return label_vec


def get_training_data_set():
    """
    获得训练数据集
    :return:
    """
    image_loader = ImageLoader("train-images-idx3-ubyte", 60000)
    label_loader = ImageLoader("train-labels-idx1-ubyte", 60000)
    return image_loader.load(), label_loader.load()


def get_test_data_set():
    """
    获得测试数据集
    :return:
    """
    image_loader = ImageLoader("t10k-images-idx3-ubyte", 10000)
    label_loader = ImageLoader("t10k-labels-idx1-ubyte", 10000)
    return image_loader.load(),label_loader.load()

网络的输出是一个10维向量,这个向量第 n n n个(从0开始编号)元素的值最大,那么 n n n就是网络的识别结果。下面是代码实现:

def get_result(vec):
    max_value_index = 0
    max_value = 0
    for i in range(len(vec)):
        if vec[i] > max_value:
            max_value = vec[i]
            max_value_index = i
    return max_value_index

我们使用错误率来对网络进行评估,下面是代码实现:

def evaluate(network, test_data_set, test_labels):
    error = 0
    total = len(test_data_set)
    for i in range(total):
        label = get_result(test_labels[i])
        predict = get_result(network.predict(test_data_set[i]))
        if label != predict:
            error += 1
    return float(error) / float(total)

最后实现我们的训练策略:每训练10轮,评估一次准确率,当准确率开始下降时终止训练。下面是代码实现:

def train_and_evaluate():
    last_error_ratio = 1.0
    epoch = 0
    train_data_set, train_labels = transpose(get_training_data_set())
    test_data_set, test_labels = transpose(get_test_data_set())
    network = Network([784, 100, 10])
    while True:
        epoch += 1
        network.train(train_labels, train_data_set, 0.01, 1)
        print('%s epoch %d finished, loss %f' % (now(), epoch,
            network.loss(train_labels[-1], network.predict(train_data_set[-1]))))
        if epoch % 2 == 0:
            error_ratio = evaluate(network, test_data_set, test_labels)
            print('%s after epoch %d, error ratio is %f' % (now(), epoch, error_ratio))
            if error_ratio > last_error_ratio:
                break
            else:
                last_error_ratio = error_ratio


if __name__ == "__main__":
    train_and_evaluate()

在我的机器上测试了一下,1个epoch大约需要9000多秒,所以要对代码做很多的性能优化工作(比如用向量化编程)。训练要很久很久,可以把它上传到服务器上,在tmux的session里面去运行。为了防止异常终止导致前功尽弃,我们每训练10轮,就把获得参数值保存在磁盘上,以便后续可以恢复。(代码略)

十二、 小结

至此,你已经完成了又一次漫长的学习之旅。你现在应该已经明白了神经网络的基本原理,高兴的话,你甚至有能力去动手实现一个,并用它解决一些问题。如果感到困难也不要气馁,这篇文章是一个重要的分水岭,如果你完全弄明白了的话,在真正的『小白』和装腔作势的『大牛』面前吹吹牛是完全没有问题的。

作为深度学习入门的系列文章,本文也是上半场的结束。在这个半场,你掌握了机器学习、神经网络的基本概念,并且有能力去动手解决一些简单的问题(例如手写数字识别,如果用传统的观点来看,其实这些问题也不简单)。而且,一旦掌握基本概念,后面的学习就容易多了。

在下半场,我们讲介绍更多『深度』学习的内容,我们已经讲了神经网络(Neutrol Network),但是并没有讲深度神经网络(Deep Neutrol Network)。Deep会带来更加强大的能力,同时也带来更多的问题。如果不理解这些问题和它们的解决方案,也不能说你入门了『深度』学习。

目前业界有很多开源的神经网络实现,它们的功能也要强大的多,因此你并不需要事必躬亲的去实现自己的神经网络。我们在上半场不断的从头发明轮子,是为了让你明白神经网络的基本原理,这样你就能非常迅速的掌握这些工具。在下半场的文章中,我们改变了策略:不会再去从头开始去实现,而是尽可能应用现有的工具。

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值