机器学习之神经网络算法

机器学习之神经网络算法

在机器学习和认知科学领域,人工神经网络(英文:artificial neural network,缩写ANN),简称神经网络(英文:neural network,缩写NN)或类神经网络,是一种模仿生物神经网络(动物的中枢神经系统,特别是大脑)的结构和功能的数学模型或计算模型,用于对函数进行估计或近似。神经网络由大量的人工神经元联结进行计算。大多数情况下人工神经网络能在外界信息的基础上改变内部结构,是一种自适应系统。[来源请求]现代神经网络是一种非线性统计性数据建模工具。

神经网络(Neural Network)概述

神经网络算法能够提供一种复杂且非线性的假设模型 hW,b(x) h W , b ( x ) ,它具有参数 W,b W , b ,可以以此参数来拟合我们的数据。

为了描述神经网络,我们先从最简单的神经网络讲起,这个神经网络仅由一个“神经元”构成,以下即是这个“神经元”的图示:

singleneuron

这个“神经元”是一个以 x1,x2,x3 x 1 , x 2 , x 3 及截距 +1 + 1 为输入值的运算单元,其输出为 hW,b(x)=f(WTx)=f(3i=1Wixi+b) h W , b ( x ) = f ( W T x ) = f ( ∑ i = 1 3 W i x i + b ) ,其中函数 f:RR f : ℜ ↦ ℜ 被称为“激活函数”。在本教程中,我们选用sigmoid函数作为激活函数 f() f ( ⋅ )

f(z)=11+exp(z) f ( z ) = 1 1 + exp ⁡ ( − z )

可以看出,这个单一“神经元”的输入-输出映射关系其实就是一个逻辑回归(logistic regression)。

虽然本系列教程采用sigmoid函数,但你也可以选择双曲正切函数(tanh):

f(z)=tanh(z)=ezezez+ez f ( z ) = tanh ⁡ ( z ) = e z − e − z e z + e − z

以下分别是sigmoid及tanh的函数图像

sigmoid function tanh

tanh(z) tanh ⁡ ( z ) 函数是sigmoid函数的一种变体,它的取值范围为 [1,1] [ − 1 , 1 ] ,而不是sigmoid函数的 [0,1] [ 0 , 1 ]

注意,与其它地方不同的是,这里我们不再令 x0=1 x 0 = 1 。取而代之,我们用单独的参数 b b 来表示截距。

最后要说明的是,有一个等式我们以后会经常用到:如果选择 f ( z ) = 1 / ( 1 + exp ( z ) ) ,也就是sigmoid函数,那么它的导数就是 f(z)=f(z)(1f(z)) f ′ ( z ) = f ( z ) ( 1 − f ( z ) ) (如果选择tanh函数,那它的导数就是 f(z)=1(f(z))2 f ′ ( z ) = 1 − ( f ( z ) ) 2 ,你可以根据sigmoid(或tanh)函数的定义自行推导这个等式。

神经网络模型

所谓神经网络就是将许多个单一“神经元”联结在一起,这样,一个“神经元”的输出就可以是另一个“神经元”的输入。例如,下图就是一个简单的神经网络:

network331

我们使用圆圈来表示神经网络的输入,标上“ +1 + 1 ”的圆圈被称为偏置节点,也就是截距项。神经网络最左边的一层叫做输入层,最右的一层叫做输出层(本例中,输出层只有一个节点)。中间所有节点组成的一层叫做隐藏层,因为我们不能在训练样本集中观测到它们的值。同时可以看到,以上神经网络的例子中有3个输入单元(偏置单元不计在内),3个隐藏单元及一个输出单元。

我们用 nl n l 来表示网络的层数,本例中 nl=3 n l = 3 ,我们将第 l l 层记为 L l ,于是 L1 L 1 是输入层,输出层是 Lnl L n l 。本例神经网络有参数 (W,b)=(W(1),b(1),W(2),b(2)) ( W , b ) = ( W ( 1 ) , b ( 1 ) , W ( 2 ) , b ( 2 ) ) ,其中 W(l)ij W i j ( l ) (下面的式子中用到)是第 l l 层第 j 单元与第 l+1 l + 1 层第 i i 单元之间的联接参数(其实就是连接线上的权重,注意标号顺序), b i ( l ) 是第 l+1 l + 1 层第 i i 单元的偏置项。因此在本例中, W ( 1 ) 3 × 3 W(2)R1×3 W ( 2 ) ∈ ℜ 1 × 3 。注意,没有其他单元连向偏置单元(即偏置单元没有输入),因为它们总是输出 +1 + 1 。同时,我们用 sl s l 表示第 l l 层的节点数(偏置单元不计在内)。

我们用 a i ( l ) 表示第 l l 层第 i 单元的激活值(输出值)。当 l=1 l = 1 时, a(1)i=xi a i ( 1 ) = x i ,也就是第 i i 个输入值(输入值的第 i 个特征)。对于给定参数集合 W,b W , b ,我们的神经网络就可以按照函数 hW,b(x) h W , b ( x ) 来计算输出结果。本例神经网络的计算步骤如下:

a(2)1a(2)2a(2)3hW,b(x)=f(W(1)11x1+W(1)12x2+W(1)13x3+b(1)1)=f(W(1)21x1+W(1)22x2+W(1)23x3+b(1)2)=f(W(1)31x1+W(1)32x2+W(1)33x3+b(1)3)=a(3)1=f(W(2)11a(2)1+W(2)12a(2)2+W(2)13a(2)3+b(2)1)(1)(2)(3)(4) (1) a 1 ( 2 ) = f ( W 11 ( 1 ) x 1 + W 12 ( 1 ) x 2 + W 13 ( 1 ) x 3 + b 1 ( 1 ) ) (2) a 2 ( 2 ) = f ( W 21 ( 1 ) x 1 + W 22 ( 1 ) x 2 + W 23 ( 1 ) x 3 + b 2 ( 1 ) ) (3) a 3 ( 2 ) = f ( W 31 ( 1 ) x 1 + W 32 ( 1 ) x 2 + W 33 ( 1 ) x 3 + b 3 ( 1 ) ) (4) h W , b ( x ) = a 1 ( 3 ) = f ( W 11 ( 2 ) a 1 ( 2 ) + W 12 ( 2 ) a 2 ( 2 ) + W 13 ( 2 ) a 3 ( 2 ) + b 1 ( 2 ) )

我们用 z(l)i z i ( l ) 表示第 l l 层第 i 单元输入加权和(包括偏置单元),比如, z(2)i=nj=1W(1)ijxj+b(1)i z i ( 2 ) = ∑ j = 1 n W i j ( 1 ) x j + b i ( 1 ) ,则 a(l)i=f(z(l)i) a i ( l ) = f ( z i ( l ) )

这样我们就可以得到一种更简洁的表示法。这里我们将激活函数 f() f ( ⋅ ) 扩展为用向量(分量的形式)来表示,即 f([z1,z2,z3])=[f(z1),f(z2),f(z3)] f ( [ z 1 , z 2 , z 3 ] ) = [ f ( z 1 ) , f ( z 2 ) , f ( z 3 ) ] ,那么,上面的等式可以更简洁地表示为:

z(2)a(2)z(3)hW,b(x)=W(1)x+b(1)=f(z(2))=W(2)a(2)+b(2)=a(3)=f(z(3))(5)(6)(7)(8) (5) z ( 2 ) = W ( 1 ) x + b ( 1 ) (6) a ( 2 ) = f ( z ( 2 ) ) (7) z ( 3 ) = W ( 2 ) a ( 2 ) + b ( 2 ) (8) h W , b ( x ) = a ( 3 ) = f ( z ( 3 ) )

我们将上面的计算步骤叫作前向传播。回想一下,之前我们用 a(1)=x a ( 1 ) = x 表示输入层的激活值,那么给定第 l l 层的激活值 a ( l ) 后,第 l+1 l + 1 层的激活值 a(l+1) a ( l + 1 ) 就可以按照下面步骤计算得到:

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值