卷积神经网络CNN中的卷积核与池化
1.深度学习:可以在不同的层数来提取不同的尺度或者不同的层级的特征信息。
2.卷积核:如果经过大量的图片作为数据集,最终卷积核会训练成待提取的特征,此时卷集合与新的图像做卷积操作,符合卷积核特征的部分得到的结果也比较大,经过激活函数传递给下一层,所以可以比较好的表征区域符合特征的程度。用相同的卷积核对整幅图片进行一个卷积操作,相当于对图像进行全图滤波,选出图片上所有符合这个卷积核的特征。例如一个卷积核的特征是提取边缘,经过卷积(全图滤波),即将图像各个位置的边缘都选择出来(帮助实现不变性),不同的特征可以通过不同的卷积核来实现。
3.池化:池化其实本质就是用卷积去缩小图像,只是权重不一样,池化操作的每个池化窗口都是不重叠的,因此池化窗口的大小等于stride(步长),mean pooling,max polling,其实理想的还是小波变换,整体更加细微,还能够保留更多细节特征,池化的本质是使特征图缩小,有可能影响网络的精确度,但是可以通过增加特征图的深度来弥补精度的损失。
其中,Subsampling下采样层和池化层的作用似乎没有差别,个人认为,池化层可以理解为下采样层。