深层神经网络学习笔记——吴恩达deeplearning.ai学习笔记

深层神经网络学习笔记

1、神经网络中层数的定义和符号表示

这里需要对神经网络中所用到的符号进行定义,一个 L L 层的神经网络的定义为:

神经网络层数定义

图1 神经网络层数定义

需要注意的是,输入层并不算神经网络的层数,只有隐藏层和输出层才算,例如上图中左侧的神经网络结构为3层,右侧的为6层,分别有2个隐藏层和5个隐藏层

这里写图片描述

图2 4层神经网络

如上图2所示,当L=4时,神经网络共有3个隐藏层,其中第一层和第二层有5个神经元,第三层有三个神经元。这个神经网络有一下的符号表示:

第一层 n[1]=5 n [ 1 ] = 5 ,同理 n[2]=5 n [ 2 ] = 5 n[3]=3 n [ 3 ] = 3 ,这里 n[l] n [ l ] 表示第 l l 层中神经元的数量。每层中a[l]表示第 l l 层中的激活函数的结果,有a[l]=g(zl),其中 z[l]=wla[l]+b[l] z [ l ] = w l a [ l ] + b [ l ] w[l] w [ l ] l l 层的权重参数,b[l]为偏置量。用于层数的表示方式是方括号上标 [] [ ]

2、前向传播和反向传播

对于神经网络,每一层都有正向传播和反向传播,首先讲解正向传播。

正向传播的输入是 a[l1] a [ l − 1 ] ,输出是 a[l] a [ l ] ,缓存是 zl z l ;在实践的角度缓存中也要加上 wl w l bl b l ,可以在其他环节中使用:

这里写图片描述

则前向传播的过程可以表示为: z[l]=wla[l1]+b[l] z [ l ] = w l a [ l − 1 ] + b [ l ] a[l]=g[l](z[l]) a [ l ] = g [ l ] ( z [ l ] )

使用向量化过程表示为: Z[l]=W[l]A[l1]+b[l] Z [ l ] = W [ l ] A [ l − 1 ] + b [ l ] A[l]=g[l](Z[l]) A [ l ] = g [ l ] ( Z [ l ] )

其中输入 X X 也就是A[0] ,通过输入 X X 实现整个神经网络从左向右的传播。

接下来讲解反向传播过程。

反向传播过程输入为da[l] ,输出为 da[l1] d a [ l − 1 ] dw[l] d w [ l ] db[l] d b [ l ] :

这里写图片描述

则反向传播过程可以整理为:

(1)

dz[l]=da[l]g(z[l]) d z [ l ] = d a [ l ] ⋅ g ′ ( z [ l ] )

(2) dw[l]=dz[l](a[l1])T d w [ l ] = d z [ l ] ⋅ ( a [ l − 1 ] ) T

(3) db[l]=dz[l] d b [ l ] = d z [ l ]

(4) da[l1]=(w[l])Tdz[l] d a [ l − 1 ] = ( w [ l ] ) T ⋅ d z [ l ]

再进行向量化之前,对反向传播进行一点解释:

这里的输入 da[l]=La[l] d a [ l ] = ∂ L ∂ a [ l ] ,其中 L=ylog(a[l])+(1y)log(1a[l]) L = y log ⁡ ( a [ l ] ) + ( 1 − y ) log ⁡ ( 1 − a [ l ] ) ,即对于单个样本,这一函数表示的是一个交叉熵函数,而对于整个神经网络而言有:

J=1mi=1mL(i) J = 1 m ∑ i = 1 m L ( i )

这里出现的 1m 1 m 会在向量化的过程中出现一丝疑虑,注意在课程中的处理方式 da[l] d a [ l ] 并不是直接对 J J 进行求导,因为这样的话da[l] 中就会出现 1m 1 m ,从而使得 dw[l] d w [ l ] 以及其他变量的导数中不存在 1m 1 m 这一项。那么向量化后的 dA[l] d A [ l ] 是什么呢?向量化后的形式为:
dA[l]=[da[1](1),da[2](2),da[m](m)] d A [ l ] = [ d a [ 1 ] ( 1 ) , d a [ 2 ] ( 2 ) , ⋯ , d a [ m ] ( m ) ]

即这一形式并未加上 1m 1 m 只是将 da[l] d a [ l ] 简单的进行了排列,所以会出现以下向量化后的表达形式:
dZ[l]=dA[l]g(Z[l])dW[l]=1mdZ[l](A[l1])Tdb[l]=1mnp.sum(dZ[l],axis=1,keepdims=1)dA[l1]=(W[l])TdZ[l](1)(2)(3)(4) (1) d Z [ l ] = d A [ l ] ⋅ g ′ ( Z [ l ] ) (2) d W [ l ] = 1 m d Z [ l ] ⋅ ( A [ l − 1 ] ) T (3) d b [ l ] = 1 m n p . s u m ( d Z [ l ] , a x i s = 1 , k e e p d i m s = 1 ) (4) d A [ l − 1 ] = ( W [ l ] ) T ⋅ d Z [ l ]

根据 J J 的定义可知,dW[l] db[l] d b [ l ] 的值是需要进行 1m 1 m 操作的。

现在已经有了单层的前向传播和反向传播输入和输出,剩下的操作只需要根据层数进行操作即可,可使用for loop进行操作。

2.1、前向传播

前向传播的可表示为:

这里写图片描述

这里只能用一个显示for循环,从1到 L L 进行计算:

Z[l]=W[l]A[l1]+b[l],A[l]=g[l](Z[l])

2.2、核对矩阵维数

神经网络中参数的维度为:

w[l],W[l] w [ l ] , W [ l ] 维度一样为 (n[l],n[l1]) ( n [ l ] , n [ l − 1 ] )

b b 的维度为(n[l],1)

z[l],a[l] z [ l ] , a [ l ] 的维度为 (n[l],1) ( n [ l ] , 1 )

Z[l],A[l] Z [ l ] , A [ l ] 维度为 (n[l],m) ( n [ l ] , m )

dw[l],db[l] d w [ l ] , d b [ l ] 的维度和 w[l],b[l] w [ l ] , b [ l ] 维度一样

3、深层网络的好处

神经网络本就是针对非结构性数据而产生的一个算法,其根本特性也就是在每一层对数据进行特征提取。前几层网络只能学习一些低层次的简单特征,在后几层就把简单特征合并起来,去进行更深入的探测。所以前几层网络只是做一些简单的函数,而深层神经网络才可以拟合复杂的函数。

4、搭建神经网络结构

在之前的前向传播和反向传播中,介绍的是针对单个层的输入和输出,而利用单个层就可以搭建出一个完整的神经网络。

这里写图片描述

在搭建过程中要注意到缓存(cache)的作用,因为前向传播的过程中会产生出一些参数,这些参数在反向传播的计算中是会被用到的,所以要使用cache来进行存储。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值