本文按照北京邮电大学计算机学院鲁鹏老师的计算机视觉与深度学习课程按章节进行整理,需要的同学可借此系统学习该课程详尽知识~
全连接神经网络瓶颈
卷积神经网络
卷积层
卷积网络中的卷积核
基于卷积核组的图像表示
卷积网络中的卷积核
卷积网络中的卷积操作
卷积步长
卷积神经网络中,卷积核可以按照指定的间隔进行卷积操作,这个间隔就是卷积步长。
边界填充
- 卷积操作后的图像要小于输入时图像,通过边界填充,我们可以实现卷积前后图像的尺寸不变
- 一种最常用的边界填充就是常数填充(常用零值填充)
特征响应图组尺寸计算
激活层
前面章节已有介绍,本节不再赘述。
池化层
➢ 池化的作用:对每一个特征响应图独立进行,降低特征响应图组中每个特征响应图的宽度和高度,减少后续卷积层的参数的数量,降低计算资源耗费,进而控制过拟合。
➢ 池化操作:对特征响应图某个区域进行池化就是在该区域上指定一个值来代表整个区域。
➢ 常见的池化操作
- 最大池化——使用区域内的最大值来代表这个区域
- 平均池化——采用区域内所有值的均值作为代表
➢ 池化层的超参数:池化窗口和池化步长
池化示例
注:最大池化与上节图像基础操作非极大值抑制原理类似,可以类比进行思考!
全连接层
前面章节已有介绍,本节不再赘述。
注:卷积神经网络中的全连接层相当于全连接神经网络,卷积、激活、池化操作相当于在全连接神经网络实施前进行预处理工作!