-
何为池化?
池化过程在一般卷积过程后。池化(pooling) 的本质,其实就是采样。Pooling 对于输入的 Feature Map,选择某种方式对其进行降维压缩,以加快运算速度。 -
为什么叫池化?
pooling作为动词很形象的表征了信息的聚合方式(pooling汇聚(到池子里)) -
池化层的特征?
池化层没有参数,
保留主要主要特征的同时减少参数和计算量,防止过拟合
invariance(不变性),这种不变性包括translation(平移),rotation(旋转),scale(尺度)。
Pooling 层说到底还是一个特征选择,信息过滤的过程。也就是说我们损失了一部分信息,这是一个和计算性能的一个妥协,随着运算速度的不断提高,我认为这个妥协会越来越小。 -
平均池化和最大池化分别适用于哪些场景?
最大池化提取特征纹理;平均池化保留背景信息,即保留整体的数据特征.一言蔽之,当特征中的信息都具有一定贡献的时候使用AvgPooling,比如网络走到比较深的地方,这个时候特征图的H W都比较小,包含的语义信息较多,这个时候再使用MaxPooling就不太合适了。
举个栗子,这个对比图:
观察左图可以看到,前景亮度低于背景亮度,最大池化是失败的,而实际中大部分前景目标的亮度都大于背景,所以在深度学习中最大池化用的比较多.
观察左图可以看到,前景亮度低于背景亮度,最大池化是失败的,而实际中大部分前景目标的亮度都大于背景,所以在深度学习中最大池化用的比较多.其他网络都用最大池化,只在最后一层使用平均池化,来保证信息的完整性.
另外avgpool与maxpool输出值会有不同的幅度区间,有些时候会遇到maxpool输出值幅度波动大,此时可以加一些归一化操作。二者的具体使用场景只有在具体任务上观察,实际效果炼丹后才知道。
最大池化与平均池化
最新推荐文章于 2024-06-12 20:02:59 发布