1、为什么卷积核一般都是奇数?
2、由哪些层组成了基本的卷积神经网络,作用分别是什么?
3、卷积层和池化层有什么区别?
4、什么是端到端学习end-to-end?
1、为什么卷积核一般都是奇数?
(1)保护位置信息:保证锚点刚好在中间,方便以模块中心为标准进行滑动卷积,避免了位置信息发生偏移
(2)padding时的对称性:保证padding时图像的两边依然对齐
(3)一些历史尝试的经验,如边缘检测等,还有padding = 1 & kernel size = 3时前后层feature map大小不变便于控制feature map的形状和锚点的对齐
2、由哪些层组成了基本的卷积神经网络,作用分别是什么?
卷积层、池化层、批归一化层、全连接层、激活层
卷积层:区域特征提取
池化层:特征采样
批归一化层:对特征图每个batch数值做标准化与线性变化
全连接层:一般将特征平铺flatten,接分类器
激活层:加入非线性
3、卷积层和池化层有什么区别?
功能角度
卷积层:提取特征;池化层:压缩特征图,特征选择
操作角度
卷积层:改变特征通道(特征维度)
池化层:只是二维操作不改变特征通道数
参数学习角度
卷积层:权重参数共享;池化层:没有可以学习的参数
4、什么是端到端学习end-to-end?
这个end-to-end的说法针对传统的机器学习muti-stage的方式而言。传统机器学习或者计算机视觉的任务,需要经过多个手工提取特征,然后放入分类器等多个阶段。
现在通过训练一个深度神经网络能够完成原始数据到最终结果输出的整个任务。