卷积神经网络(CNN)学习笔记2:模型训练

卷积神经网络(CNN)学习笔记2:模型训练

上篇博文主要对CNN的基本网络结构及连接方式做了简单的介绍,还介绍了一个界内经典的LeNet-5模型。下面重点介绍CNN模型的训练过程/参数学习,在阅读本文之前,最好需要有以下方面的预备知识:

  • 神经网络基础(网络结构,前向/后向传播方式,激活函数等);
  • 基础的最优化求解方法(梯度法,牛顿法等);
  • 机器学习基础

神经网络模型常用于处理有监督学习的问题,例如分类问题,CNN也不例外。模型需要一些有标注的数据进行训练,训练过程中主要涉及到网络的前向传播反向传播计算,前向传播体现了特征信息的传递,而反向传播则是体现误差信息对模型参数的矫正。

CNN前向传播

与普通的神经网络的前向传播过程一样。用 l l 表示当前层, xl xl 表示当前层的输出, Wl Wl bl bl 分别表示当前层的权值和偏置,则前向传播可以用下面的公式表示:

xl=f(ul), withul=Wlxl1+bl xl=f(ul), withul=Wlxl−1+bl

其中 f() f() 函数为激活函数,可以选择sigmod或者tanh等函数。

对于卷积层,其前向传播如下图:

CNN反向传播

代价函数

代价函数(或损失函数)有较多形式,常用的有平方误差函数,交叉熵等。这里我们用平方误差函数作为代价函数,公式如下:

En=12k=1c(tnkynk)2=12||tnyn||22 En=12∑k=1c(tkn−ykn)2=12||tn−yn||22

以上公式描述了样本 n n 的训练误差,其中 c c 为输出层节点的个数(通常就是最终的分类类别数目), t t 是训练样本的正确结果, y y 是网络训练的输出结果。

BP反向传播

基本的反向传播与BP神经网络类似,首先,简单回顾一下BP神经网络中的反向传播计算过程:

权值参数调整的方向如下公式:

ΔWl=ηEWl,  EWl=xl1(δl)T ΔWl=−η∂E∂Wl,  ∂E∂Wl=xl−1(δl)T

其中, η η 为学习率。

Eb=Euub=Eu=δ ∂E∂b=∂E∂u∂u∂b=∂E∂u=δ

其中, δ δ 称之为敏感度,也就是误差度 δ δ的计算方式如下:

δL=f(uL)(yntn) δL=f′(uL)∘(yn−tn)

δl=(Wl+1)Tf(ul) δl=(Wl+1)T∘f′(ul)

其中, L L 表示网络的最后一层, l l 表示网络的其他层, 表示点乘。 以上的两个公式反映了误差由网络的最后一层逐步向前传递的计算过程。

特殊的反向传播

由于CNN中有不同类型的层级,并且层级之间的连接关系有可能是不确定的(如LeNet-5网络中S2层到C3层)。所以,有几个情形下的反向传播比较特别:

  • 情况一:当前为Pooling层,前一层是卷积层;
  • 情况二:当前为卷积层,前一层是Pooling层;
  • 情况三:当前层与前一层的连接关系不确定(?尚不理解?);
情况一:当前为Pooling层,前一层是卷积层

其中,Kronecker乘积的计算如下:

情况二:当前为卷积层,前一层是Pooling层

以上的矩阵1和矩阵2进行卷积操作时,需要将矩阵2先水平翻转,然后再垂直翻转;最后在矩阵1上进行卷积操作(和前向传播时类似)。

情况三:当前层与前一层的连接关系不确定

个人理解,当前层与前一层的连接关系不确定时,反向传播与传统的BP算法类似,只不过更新的是局部连接的那些值。所以需要提前记录当前层的神经元与前一层的哪些元素是连接的。


本文结束,感谢欣赏。

欢迎转载,请注明本文的链接地址:

http://www.jeyzhang.com/cnn-learning-notes-2.html

参考资料

卷积神经网络全面解析

CNN卷积神经网络反向传播机制的理解

2015年校招总结:技术面试干货
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值