人工神经网络学习笔记(0)


何为人工神经网络

人工神经网络是模拟人脑的神经网络,用以实现人工智能的机器学习技术。我们知道,人脑可以说是世界上最复杂最精妙的系统之一,它由千亿计的神经元细胞组成。各个神经细胞相互链接,彼此之间传递电信号。从而造就了人类高于其他物种的思维能力。科学家受到人脑神经元的启发从而提出了人工神经网络的设想,使得人工智能的实现不再遥不可及。

生物神经元


关键部件: 树突 & 胞体 & 轴突

  • 单个神经元的工作机制可以简单地描述为:树突接受其他神经元的神经末梢传来的电信号,信号传送到胞体并由某种机制决定是否激发下一次电信号的传递,若激发则电信号由轴突传递至神经末梢,再由神经末梢传递给其他神经元。其中,判断是否激发的机制有一大好处是可以减小神经元间微弱电信号(噪声)的干扰,使得自由足够强的电信号才能激发下一次传递。

人工神经元

概览

人工神经元

  • 由生物神经元得到的启发,人工神经元与其大同小异。上图中: x 1 , x 2 , x 3 , x 4 x_1,x_2,x_3,x_4 x1,x2,x3,x4 为该神经元树突所接受到的其他神经元传来的电信号。中间的圆圈为胞体,在胞体中将会由处理信号的机制,以决定输出信号y。

功能

  • 在之前的生物神经元中已经说道,神经元对是否激发信号传递有一个判断机制,这是因为神经元不希望传递微小的噪声信号,而只传递有意识的明显信号。只有信号强度达到了某一个阙值,才会激发电信号的传递。
    那么在人工神经元中我们如何来实现这个机制呢?
  • 这样的一个函数也许能够满足我们的需要:
    F u n c t i o n ( x ) = { 0 x ≤ T 1 x > T Function(x) = \begin{cases} 0 & x \leq T \\ 1 & x>T \end{cases} Function(x)={01xTx>T
    显而易见,这个简单的阶跃函数在输入信号大于T(阙值)时才会产生输出信号1(被激发),而较小的输入时输出为0(被抑制);我们称这样的函数为激活函数。当然,激活函数不会就只有这么一种。常用的还有sigmoid函数:
    S i g m o i d ( x ) = 1 1 + e − x Sigmoid(x) = \frac{1}{1+e^{-x}} Sigmoid(x)=1+ex1
    函数图像:

    可以发现,sigmoid函数相对于阶跃函数而言更加平滑,自然,接近现实。我们的神经网络也将采用它。
    如此一来,我们的单个神经元模型就成型了:
    人工神经元模型
    参数含义:
  • x 1 , x 2 . . . x m x_1 ,x_2... x_m x1,x2...xm为输入信号
  • w 1 , w 2 . . . w m w_1 ,w_2... w_m w1,w2...wm为权重值,表示各个输入信号对输出结果的影响力大小。对于为何引入权值可以做如下思考:你去相亲,你对未来对象的考量主要有身高,长相,身材,文化程度等,但遇到样样都好的概率实在是太底了,所以你决定适当放宽某些要求。比如如果学历高就可以降低身材长相的要求。这表示你比较注重伴侣的文化程度。因此,对方的文化程度对你的择偶有着重要的影响,其所占权重就会比较高。
  • 求和函数将计算 x = ∑ m x i w i , i = 1 , 2 , . . . m x=\sum_{m}{x_iw_i},i=1,2,...m x=mxiwi,i=1,2,...m后将所得的值传给激活函数Sigmoid即:
    O u t p u t = S i g ( x ) = 1 1 + e − ( ∑ m x i w i ) Output=Sig(x)=\frac{1}{1+e^{-(\sum_{m}{x_iw_i})}} Output=Sig(x)=1+e(mxiwi)1
    观察函数图不难发现,Sigmoid函数将加权求和的输入映射到0~1的值域内输出。

人工神经网络


介绍完单个神经元的功能,如果把这些小部件组合起来,就成了所谓的人工神经网络。
层次结构:

  • 输入层:接受外部输入信息,可以是图片等。
  • 隐藏层:隐藏层层数不一,可根据需求来定。
  • 输出层:将结果输出到外部。

链接方式:

  • 除输入层外,每一层的每个神经元都接受其上一层所有神经元传来的信号的加权值。
  • 神经元的链接方式并不唯一,你可以创造自己的链接方式,但为了便于抽象计算编码,规则的链接方式能帮我们大忙。

一个三层神经网络示例


参数释义:

  • i 1 , i 2 , i 3 i_1,i_2,i_3 i1,i2,i3为输入信号。
  • w j , k w_{j,k} wj,k表示后层结点 j j j与前一层节点 k k k之间链接的权重值。
  • o 1 , o 2 , o 3 o_1,o_2,o_3 o1,o2,o3为该网络输出的结果信号。

信号的前向传播:
前面我们介绍了单个人工神经元对信号的处理。但是现在网络中有多个神经元,我们当然不愿意对每一个神经元节点都进行编码计算,因此我们将其简化为矩阵运算。

  1. 将输入看成一个多维列向量:
    I = [ i 1 i 2 i 3 ] I= \left[ \begin{matrix} i_1 \\ i_2 \\ i_3 \end{matrix} \right] I=i1i2i3
  2. 链接权重为一个 3 × 3 3\times3 3×3的矩阵:
    W i n p u t → h i d d e n = [ w 1 , 1 w 2 , 1 w 3 , 1 w 1 , 2 w 2 , 2 w 3 , 2 w 1 , 3 w 2 , 3 w 3 , 3 ] W_{input\rightarrow hidden}= \left[ \begin{matrix} w_{1,1} & w_{2,1} & w_{3,1} \\ w_{1,2} & w_{2,2} & w_{3,2} \\ w_{1,3} & w_{2,3} & w_{3,3} \end{matrix} \right] Winputhidden=w1,1w1,2w1,3w2,1w2,2w2,3w3,1w3,2w3,3
  3. 将两者相乘得到隐藏层的输入信号:
    I h i d d e n = W i n p u t → h i d d e n ⋅ I = [ w 1 , 1 ⋅ i 1 + w 2 , 1 ⋅ i 2 + w 3 , 1 ⋅ i 3 w 1 , 2 ⋅ i 1 + w 2 , 2 ⋅ i 2 + w 3 , 2 ⋅ i 3 w 1 , 3 ⋅ i 1 + w 2 , 3 ⋅ i 2 + w 3 , 3 ⋅ i 3 ] I_{hidden}=W_{input\rightarrow hidden}\cdot I= \left[ \begin{matrix} w_{1,1}\cdot i_1 + w_{2,1}\cdot i_2 + w_{3,1}\cdot i_3 \\ w_{1,2}\cdot i_1 + w_{2,2}\cdot i_2 + w_{3,2}\cdot i_3 \\ w_{1,3}\cdot i_1 + w_{2,3}\cdot i_2 + w_{3,3}\cdot i_3 \end{matrix} \right] Ihidden=WinputhiddenI=w1,1i1+w2,1i2+w3,1i3w1,2i1+w2,2i2+w3,2i3w1,3i1+w2,3i2+w3,3i3
    也即:
    I h i d d e n = [ ∑ j = 1 3 w j , 1 ⋅ i j ∑ j = 1 3 w j , 2 ⋅ i j ∑ j = 1 3 w j , 3 ⋅ i j ] = [ i h 1 , i h 2 , i h 3 ] T I_{hidden}= \left[ \begin{matrix} \sum_{j=1}^{3}{w_{j,1}\cdot i_j} \\ \sum_{j=1}^{3}{w_{j,2}\cdot i_j} \\ \sum_{j=1}^{3}{w_{j,3}\cdot i_j} \end{matrix}\right]=[i_{h1},i_{h2},i_{h3}]^T Ihidden=j=13wj,1ijj=13wj,2ijj=13wj,3ij=[ih1,ih2,ih3]T
  4. 再将加权求和的信号值经过Sigmoid激活函数处理我们可以得到最终的输出向量:
    O h i d d e n = W h i d d e n → o u t p u t ⋅ I h i d d e n = [ S i g ( ∑ j = 1 3 w j , 1 ⋅ o h j ) S i g ( ∑ j = 1 3 w j , 2 ⋅ o h j ) S i g ( ∑ j = 1 3 w j , 3 ⋅ o h j ) ] = [ o h 1 , o h 2 , o h 3 ] T O_{hidden}=W_{hidden\rightarrow output}\cdot I_{hidden}= \left[ \begin{matrix} Sig(\sum_{j=1}^{3}{w_{j,1}\cdot o_{hj}}) \\ Sig(\sum_{j=1}^{3}{w_{j,2}\cdot o_{hj}}) \\ Sig(\sum_{j=1}^{3}{w_{j,3}\cdot o_{hj}}) \\ \end{matrix} \right]=[o_{h1},o_{h2},o_{h3}]^T Ohidden=WhiddenoutputIhidden=Sig(j=13wj,1ohj)Sig(j=13wj,2ohj)Sig(j=13wj,3ohj)=[oh1,oh2,oh3]T
    这里需要注意的是,输入层到隐藏层的链接权重矩阵与隐藏层到输出成的链接权重矩阵是不同的矩阵。但是计算过程是一致的,因此同理可得:
    I o u t p u t = W h i d d e n → o u t p u t ⋅ O h i d d e n I_{output}=W_{hidden\rightarrow output}\cdot O_{hidden} Ioutput=WhiddenoutputOhidden
    网络的最终输出为:
    O o u t p u t = [ S i g ( ∑ j = 1 3 w j , 1 ⋅ i o j ) S i g ( ∑ j = 1 3 w j , 2 ⋅ i o j ) S i g ( ∑ j = 1 3 w j , 3 ⋅ i o j ) ] = [ o 1 , o 2 , o 3 ] T O_{output}= \left[ \begin{matrix} Sig(\sum_{j=1}^{3}{w_{j,1}\cdot i_{oj}}) \\ Sig(\sum_{j=1}^{3}{w_{j,2}\cdot i_{oj}}) \\ Sig(\sum_{j=1}^{3}{w_{j,3}\cdot i_{oj}}) \\ \end{matrix} \right]=[o_1,o_2,o_3]^T Ooutput=Sig(j=13wj,1ioj)Sig(j=13wj,2ioj)Sig(j=13wj,3ioj)=[o1,o2,o3]T
    到此,我们已经了解了神经网络中信号的前向传播机制,但是目前这个网络模型远远达不到我们的要求,它除了单纯的传播信号什么事情也做不了。显然后续我们得为其添加反馈机制,使其能够具有学习能力。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值