卷积神经网络CNN(二)池化、结构、误差反向传播

上一篇介绍了CNN基本概念和卷积的知识,CNN的特征抽取除了包含卷积,还包含池化。

池化

池化又叫子采样,是特殊的卷积。池化比较好理解,还是上篇公司工作交接的例子,每个销售区域有100个老员工,我们可以先推举一个最懂本区域的业务人员参与交接(如各区域的领导),其他人员不必参与交接;或者每个区域内部先开一个会,把100个老员工的经验结合在一起,生成一个会议纪要,根据这份纪要与新员工交接。这实际对应两种池化方式,前一种是最大化池化,后一种是平均池化。

放到图像识别的例子里,池化是为了降维。例如一个250*250像素的图像,从上到下、从左到右用2*2大小的矩阵扫描,也就是说250*250的图像中每个连在一起2*2的小图像,都用这四个点中像素值最大的点代替,其他像素点舍弃;或者用这四个像素值的均值代替,也就完成了池化。注意平均池化实际相当于卷积核元素都是1的矩阵。


以上图为例,池化以后图像会变模糊,高、宽变为原来的一半。

结构

之所以没在本篇开头说结构,是因为希望大家一开始有个感性的认识,知道卷积是为了做什么,池化是为了做什么,否则一开始看结构会不知所云,不便于理解。

在了解卷积、池化以后,CNN的结构就比较简单了,首先它依然有输入层和输出层,输入层是一个矩阵,接收图像的二维矩阵信息(此处图像只考虑一个通道),经过卷积、池化、卷积、池化……得到的依然是矩阵。但是输出层与BPNN一样,并非一个矩阵,而是一个向量,例如(1, 0, 0)代表图像是狗,(0, 1, 0)代表图像是猫, (0, 0, 1)代表图像是鸟,(0.9, 0.1, 0)代表图像很大概率是狗,小概率是猫,所以CNN在最后的结构需要把矩阵展开,然后类似BPNN那样全连接神经网络,输出到一个一维向量中。

误差反向传播

首先了解前向传播。前向传播的过程是,图像的原始像素值输入到CNN中,经过卷积操作,得到特征平面,特征平面经过激活函数激活,输出到池化层,池化层经过简单的最大值池化或均值池化,再输出给下一层卷积,经过N

  • 8
    点赞
  • 53
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值