机器学习笔记——人工神经网络(2)

代价函数

变量定义
L L :神经网络的总层数
sl:第 l l 层的单元(神经元)数量
K:输出层的单元数量

逻辑回归的代价函数(正则化)
这里写图片描述

神经网络的代价函数

J(Θ)=1mi=1mk=1K[y(i)klog((hΘ(x(i)))k)+(1y(i)k)log(1(hΘ(x(i)))k)]+λ2ml=1L1i=1slj=1sl+1(Θ(l)j,i)2 J ( Θ ) = − 1 m ∑ i = 1 m ∑ k = 1 K [ y k ( i ) log ⁡ ( ( h Θ ( x ( i ) ) ) k ) + ( 1 − y k ( i ) ) log ⁡ ( 1 − ( h Θ ( x ( i ) ) ) k ) ] + λ 2 m ∑ l = 1 L − 1 ∑ i = 1 s l ∑ j = 1 s l + 1 ( Θ j , i ( l ) ) 2

第一部分是将输出层K个单元的逻辑回归代价函数进行累加,第二部分是正则化部分,类比与逻辑回归,不含偏置项的正则化。

反向传播算法

我们的目标是最小化代价函数,即 minΘJ(Θ) m i n Θ J ( Θ ) ,需要计算 Θ(l)i,jJ(Θ) ∂ ∂ Θ i , j ( l ) J ( Θ )
反向传播算法用来计算 Θ(l)i,jJ(Θ) ∂ ∂ Θ i , j ( l ) J ( Θ )

反复使用链式求导


这里写图片描述
Θ(l)i,j Θ i , j ( l ) 表示 l l 层第j个神经元连接到 l+1 l + 1 层第 i i 个神经元的权重;
aj(l)表示第 l l 层第j个神经元的输出
z(l)j z j ( l ) 表示第 l l 层第j个神经元的输入
l l 层第j个神经元产生的误差定义为 δ(l)j δ j ( l )
对输入的一个样本,输出层代价函数

J(Θ)=12j(hΘ(x)jyj)2=12j(a(L)jyj)2 J ( Θ ) = 1 2 ∑ j ( h Θ ( x ) j − y j ) 2 = 1 2 ∑ j ( a j ( L ) − y j ) 2

输出层第 j j 个神经元的误差为
δj(L)=J(Θ)aj(L)aj(L)zj(L)

由后向前计算隐层产生的误差
δ(l)j=J(Θ)z(l)j=iJ(Θ)z(l+1)iz(l+1)ia(l)ja(l)jz(l)j=iδ(l+1)i(Θ(l)ija(l)j)a(l)jh(z(l)j)=iδ(l+1)iΘ(l)ijh(z(l)j)(1h(z(l)j)) δ j ( l ) = ∂ J ( Θ ) ∂ z j ( l ) = ∑ i ∂ J ( Θ ) ∂ z i ( l + 1 ) ∂ z i ( l + 1 ) ∂ a j ( l ) ∂ a j ( l ) ∂ z j ( l ) = ∑ i δ i ( l + 1 ) ∂ ( Θ i j ( l ) a j ( l ) ) ∂ a j ( l ) h ′ ( z j ( l ) ) = ∑ i δ i ( l + 1 ) Θ i j ( l ) h ( z j ( l ) ) ( 1 − h ( z j ( l ) ) )

权值的梯度计算
J(Θ)Θ(l)ij=J(Θ)z(l+1)iz(l+1)iΘ(l)ij=δ(l+1)ia(l)j ∂ J ( Θ ) ∂ Θ i j ( l ) = ∂ J ( Θ ) ∂ z i ( l + 1 ) ∂ z i ( l + 1 ) ∂ Θ i j ( l ) = δ i ( l + 1 ) a j ( l )


给出一个训练集,设 Δ(l)i,j:=0,for all(l,i,j) Δ i , j ( l ) := 0 , f o r   a l l ( l , i , j )
对从t=1到m的样本作如下操作:

  1. a(1):=x(t) a ( 1 ) := x ( t )
  2. 执行前向传播计算 a(l), for l=2,3,4,,L a ( l ) ,   f o r   l = 2 , 3 , 4 , ⋯ , L
    这里写图片描述

  3. 使用实际值 y(t) y ( t ) ,计算误差 δ(L)=a(L)y(t) δ ( L ) = a ( L ) − y ( t )
    这里写图片描述

  4. 反向传递误差,计算各层的误差 δ(L1),δ(L2),,δ(2) δ ( L − 1 ) , δ ( L − 2 ) , ⋯ , δ ( 2 )
    这里写图片描述

    g(z(l))=a(l).(1a(l)) g ′ ( z ( l ) ) = a ( l ) . ∗ ( 1 − a ( l ) )
    不考虑输入层的误差

  5. 计算更新 Δ(l)i,j Δ i , j ( l )
    这里写图片描述
    矩阵D累加所有样本的误差值得到最终的偏导数

    Θ(l)i,jJ(Θ)=D(l)ij ∂ ∂ Θ i , j ( l ) J ( Θ ) = D i j ( l )

    D(l)ij D i j ( l ) Θ(l)ij Θ i j ( l ) 的偏导数,具有相同矩阵尺寸


δ(l)j δ j ( l ) 的计算

我们简化考虑不是多类别分类的情况,即只有两种类别的情况,代价函数可以简化为
这里写图片描述
δ(l)j δ j ( l ) a(l)j a j ( l ) (即第 l l 层第j个神经元输出的误差),实际上是代价函数的偏导数,即
这里写图片描述
类似于前向传播, δ(l)j δ j ( l ) 的计算由右向左传递误差 δ δ ,左边一层的 δ δ 由右面一层的 δ δ 乘以传递路线的权重值得到,比如计算Layer2的 δ(2)2 δ 2 ( 2 ) ,由Layer3的 δ(3)1,δ(3)2 δ 1 ( 3 ) , δ 2 ( 3 ) f分别乘以各自的权重 Θ(2)12,Θ(2)22 Θ 12 ( 2 ) , Θ 22 ( 2 ) 再相加得到,即

δ(2)2=Θ(2)12δ(3)1+Θ(2)22δ(3)2 δ 2 ( 2 ) = Θ 12 ( 2 ) δ 1 ( 3 ) + Θ 22 ( 2 ) δ 2 ( 3 )

再比如
δ(3)2=Θ(3)12δ(4)1 δ 2 ( 3 ) = Θ 12 ( 3 ) δ 1 ( 4 )

梯度检验

反向传播算法在计算梯度时可能会出现错误,需要使用梯度检测来检测算法的正确性。

神经网络中的 Θ Θ 是矩阵形式,在变成计算时通常展开成向量形式

近似计算导数这里写图片描述
ϵ ϵ 取非常小的值,比如 ϵ=104 ϵ = 10 − 4 。当 ϵ ϵ 趋向0的时候,其实就是导数的定义。
多类别的情况,可以类似近似计算
这里写图片描述
代码计算

epsilon = 1e-4;
for i = 1:n,
  thetaPlus = theta;
  thetaPlus(i) += epsilon;
  thetaMinus = theta;
  thetaMinus(i) -= epsilon;
  gradApprox(i) = (J(thetaPlus) - J(thetaMinus))/(2*epsilon)
end;

若反向传播算法计算正确,反向传播得到的结果deltaVector与梯度检验得到的结果应大致相等,即
gradApproxdeltaVector g r a d A p p r o x ≈ d e l t a V e c t o r

一旦检测完反向传播算法正确,在训练分类器之前应该关闭梯度检验。

梯度检验的计算过程非常慢,会占用大量时间。

随机初始化

在神经网络中使用权值全零的初始化,在运行反向传播时会使所有的节点反复更新相同的值
权重矩阵的初始化应该打破对称性,采用随机数进行初始化,即对每一个 Θ(l)ij Θ i j ( l ) ,有 Θ(l)ij[ϵ,ϵ] Θ i j ( l ) ∈ [ − ϵ , ϵ ]
代码

% If the dimensions of Theta1 is 10x11, Theta2 is 10x11 and Theta3 is 1x11.
Theta1 = rand(10,11) * (2 * INIT_EPSILON) - INIT_EPSILON;
Theta2 = rand(10,11) * (2 * INIT_EPSILON) - INIT_EPSILON;
Theta3 = rand(1,11) * (2 * INIT_EPSILON) - INIT_EPSILON;

训练神经网络的过程

只有一层隐藏层的神经网络是比较普遍的,在使用多个隐藏层的神经网络时默认的规则是每个隐藏层包含的单元数量相同,通常情况下,隐藏单元越多效果越好,但计算量也会很大。
训练过程:
1. 随机初始化权重矩阵
2. 执行前向传播算法得到 hΘ(x(i)) h Θ ( x ( i ) )
3. 计算代价函数 J(Θ) J ( Θ )
4. 执行反向传播计算偏导数 Θ(l)jkJ(Θ) ∂ ∂ Θ j k ( l ) J ( Θ )
5. 使用数值计算进行梯度检验,确保反向传播算法正确后关闭梯度检验
6. 使用梯度下降或其他优化方法最小化代价函数 J(Θ) J ( Θ ) ,求得最优参数 Θ Θ

首次执行前向传播(FP)和后向传播(BP),建议采用for循环的形式对没一个样本进行FP和BP,得到 Δ(l)ij Δ i j ( l ) ,
循环完累加 Δ(l)ij Δ i j ( l ) 值,得到偏导数 Θ(l)ijJ(Θ) ∂ ∂ Θ i j ( l ) J ( Θ )
D(l)ij:=1m(Δ(l)ij+λΘ(l)ij), if j0 D i j ( l ) := 1 m ( Δ i j ( l ) + λ Θ i j ( l ) ) ,   i f   j ≠ 0
D(l)ij:=1mΔ(l)ij, if j=0 D i j ( l ) := 1 m Δ i j ( l ) ,   i f   j = 0

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值