DeepLearning:三、神经网络

目录

  • 生物神经元
  • 神经网络概述
  • 神经网路模型

本文主要的内容来源于UFLDL Tutorial [1] ,这个教程中的内容很详细,我将这个教程摘抄下来,并补充一些东西以及自己的理解。这篇教程还是有点难度的,建议先把逻辑回归的公式推导一遍再来看神经网络。

生物神经元 [2]

这里写图片描述
   神经系统的基本结构和功能单位是神经细胞,即神经元(neurons)。无脊椎动物和脊椎动物的神经元形态相似,都是由细胞体和从细胞延伸的突起所组成。神经元之间通过突触传递信息,其中化学突触的突出前膜释放的是神经递质(neurotransimitters),它进入突触间隙后,运动至突触后膜,与特异性受体结合引起突触后神经元的兴奋或抑制。因此,神经递质起着神经调节的作用,它是神经元合成的化学物质,起着传导信息的作用。而神经网络的结构与生物神经的结构十分的相似。

神经网络概述

   以监督学习为例,假设我们有训练样本集 (x(i),y(i)) ,那么神经网络算法能够提供一种复杂且非线性的假设模型 hW,b(x) ,它具有参数 W,b ,可以以此参数来拟合我们的数据。

   为了描述神经网络,我们先从最简单的神经网络讲起,这个神经网络仅由一个“神经元”构成,以下即是这个“神经元”的图示(有没有感觉与上面):

这里写图片描述

    这个“神经元”是一个以 x1,x2,x3 及截距 +1 为输入值的运算单元,其输出为 hW,b(x)=f(WTx)=f(3i=1Wixi+b) ,其中函数 f:RR 被称为“激活函数”。在本教程中,我们选用sigmoid函数作为激活函数 f()
这里写图片描述
这里写图片描述

   可以看出,这个单一“神经元”的输入-输出映射关系其实就是一个逻辑回归(logistic regression)。

   这个教程中采用sigmoid函数,但是也有其他激活函数可以选择,这里列出部分:

  • 双曲正切函数(tanh), tanh(z) 函数是sigmoid函数的一种变体,它的取值范围为 [1,1] ,而不是sigmoid函数的 [0,1] 。:

    这里写图片描述
    这里写图片描述

  • ReLu,这个应用的比较多,效果比较好。DeepLearning中大部分的案例都是使用这个激活函数的。(下图的蓝色部分)

    max(0,x)

  • Softplus,Softplus函数是Logistic-Sigmoid函数原函数。可以看作是强制非负校正函数 max(0,x) 平滑版本。(下图中绿色部分线条)

    Softplus(x)=log(1+ex)

    这里写图片描述

        注意,与其它地方(包括OpenClassroom公开课以及斯坦福大学CS229课程)不同的是,这里我们不再令 \textstyle x_0=1 。取而代之,我们用单独的参数 \textstyle b 来表示截距。

神经网络模型

   所谓神经网络就是将许多个单一“神经元”联结在一起,这样,一个“神经元”的输出就可以是另一个“神经元”的输入。例如,下图就是一个简单的神经网络:
这里写图片描述

   我们使用圆圈来表示神经网络的输入,标上“ +1 ”的圆圈被称为偏置节点,也就是截距项。神经网络最左边的一层叫做输入层,最右的一层叫做输出层(本例中,输出层只有一个节点)。中间所有节点组成的一层叫做隐藏层,因为我们不能在训练样本集中观测到它们的值。同时可以看到,以上神经网络的例子中有3个输入单元(偏置单元不计在内),3个隐藏单元及一个输出单元

   我们用 nl 来表示网络的层数,本例中 nl=3 ,我们将第 l 层记为 Ll ,于是 L1 是输入层,输出层是 Lnl 。本例神经网络有参数 (W,b)=(W(1),b(1),W(2),b(2)) ,其中 W(l)ij (下面的式子中用到)是第 l 层第 j单元与第 l+1 层第 i 单元之间的联接参数(其实就是连接线上的权重,注意标号顺序), b(l)i 是第 l+1 层第 i 单元的偏置项。因此在本例中, W(1)R3×3 W(2)R1×3 。注意,没有其他单元连向偏置单元(即偏置单元没有输入),因为它们总是输出 +1 。同时,我们用 sl 表示第 l 层的节点数(偏置单元不计在内)。

   我们用 a(l)i 表示第 l 层第 i 单元的激活值(输出值)。当 l=1 时, a(1)i=xi ,也就是第 i 个输入值(输入值的第 i 个特征)。对于给定参数集合 W,b ,我们的神经网络就可以按照函数 hW,b(x) 来计算输出结果。本例神经网络的计算步骤如下:

这里写图片描述

   我们用 z(l)i 表示第 l 层第 i 单元输入加权和(包括偏置单元),比如,

这里写图片描述

   这样我们就可以得到一种更简洁的表示法。这里我们将激活函数 f() 扩展为用向量(分量的形式)来表示,即 f([z1,z2,z3])=[f(z1),f(z2),f(z3)] ,那么,上面的等式可以更简洁地表示为:


这里写图片描述

   我们将上面的计算步骤叫作前向传播。回想一下,之前我们用 a(1)=x 表示输入层的激活值,那么给定第 l 层的激活值 a(l) 后,第 l+1 层的激活值 a(l+1) 就可以按照下面步骤计算得到:

这里写图片描述

   将参数矩阵化,使用矩阵-向量运算方式,我们就可以利用线性代数的优势对神经网络进行快速求解。

   目前为止,我们讨论了一种神经网络,我们也可以构建另一种结构的神经网络(这里结构指的是神经元之间的联接模式),也就是包含多个隐藏层的神经网络。最常见的一个例子是 nl 层的神经网络,第 1 层是输入层,第 nl 层是输出层,中间的每个层 l 与层 l+1 紧密相联。这种模式下,要计算神经网络的输出结果,我们可以按照之前描述的等式,按部就班,进行前向传播,逐一计算第 L2 层的所有激活值,然后是第 L3 层的激活值,以此类推,直到第 Lnl 层。这是一个前馈神经网络的例子,因为这种联接图没有闭环或回路。

   神经网络也可以有多个输出单元。比如,下面的神经网络有两层隐藏层: L2 L3 ,输出层 L4 有两个输出单元。

这里写图片描述

   要求解这样的神经网络,需要样本集 (x(i),y(i)) ,其中 y(i)R2 。如果你想预测的输出是多个的,那这种神经网络很适用。(比如,在医疗诊断应用中,患者的体征指标就可以作为向量的输入值,而不同的输出值 yi 可以表示不同的疾病存在与否。)

参考资料

  1. http://deeplearning.stanford.edu/wiki/index.php/Neural_Networks
  2. http://www.cnblogs.com/freyr/p/4516941.html
  3. 深度学习-LeCun、Bengio和Hinton的联合综述
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值