理解1x1卷积操作,大概就是把它当成是一次对之前特征的整理
卷积的由来
利用1*1 卷积 + Relu操作可以增加网络的非线性性,可以在不增加甚至减少网络参数量的情况下,提升网络的非线性拟合能力,进而提升网络的分类效果。
降维
经常在3x3卷积核和 5x5卷积核前用1x1卷积核进行降维。
提取通道之间的相关信息
在特征图融合网络FPN中,用于不同特征层channel数的对齐
参考资料:https://www.bilibili.com/video/BV1NK4y1H717/?spm_id_from=333.337.search-card.all.click&vd_source=2b323227b9213c9cb8bd369f12a0a71f