卷积神经网络CNN(二)池化、结构、误差反向传播

本文深入探讨卷积神经网络(CNN)的池化、结构及其误差反向传播过程。介绍了池化的概念,包括最大池化和平均池化,以及它们在图像降维中的作用。接着,详细阐述了CNN的网络结构,从输入层到输出层的矩阵变换。最后,讲解了误差反向传播在卷积层和池化层的实现,包括这两种层的导数计算,为CNN的训练提供了理论基础。
摘要由CSDN通过智能技术生成

上一篇介绍了CNN基本概念和卷积的知识,CNN的特征抽取除了包含卷积,还包含池化。

池化

池化又叫子采样,是特殊的卷积。池化比较好理解,还是上篇公司工作交接的例子,每个销售区域有100个老员工,我们可以先推举一个最懂本区域的业务人员参与交接(如各区域的领导),其他人员不必参与交接;或者每个区域内部先开一个会,把100个老员工的经验结合在一起,生成一个会议纪要,根据这份纪要与新员工交接。这实际对应两种池化方式,前一种是最大化池化,后一种是平均池化。

放到图像识别的例子里,池化是为了降维。例如一个250*250像素的图像,从上到下、从左到右用2*2大小的矩阵扫描,也就是说250*250的图像中每个连在一起2*2的小图像,都用这四个点中像素值最大的点代替,其他像素点舍弃;或者用这四个像素值的均值代替,也就完成了池化。注意平均池化实际相当于卷积核元素都是1的矩阵。


以上图为例,池化以后图像会变模糊,高、宽变为原来的一半。

结构

之所以没在本篇开头说结构,是因为希望大家一开始有个感性的认识,知道卷积是为了做什么,池化是为了做什么,否则一开始看结构会不知所云,不便于理解。

在了解卷积、池化以后,CNN的结构就比较简单了,首先它依然有输入层和输出层,输入层是一个矩阵,接收图像的二维矩阵信息(此处图像只考虑一个通道),经过卷积、池化、卷积、池化…

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值