QQ Group: 428014259
Sina Weibo:小锋子Shawn
Tencent E-mail:[email protected]
http://blog.csdn.net/dgyuanshaofeng/article/details/84179196
SENet之后,Jie Hu和Li Shen等人又提出GENet[1]。
作者:Jie Hu, Li Shen, Samuel Albanie, Gang Sun, Andrea Vedaldi
单位:Momenta, Visual Geometry Group University of Oxford
0 摘要
指出自底向上局部操作(bottom-up local)虽然可以匹配自然图像的统计信息,但是可能防止模型捕获上下文的长范围的特征交互。作者提出简单方法,探索上下文信息利用(context exploitation)。引出一对操作,聚集gather和激活excite。聚集gather,用于在某个较大空间范围内,有效地聚集(aggregate)特征响应;激活excit,用于重新分配(redistribute)上面的池化信息到局部特征上。带有gather-and-excite操作的ResNet-50,可以超越ResNet-101。
1 介绍
context上下文信息,不仅可以在图像空间上,还可以在特征空间上,即feature context。著名的auto-context,即appearance context。以前,我们会计算全连接层在输入图像上的感受野,但是有效的感受野比计算的感受野会小得多[2]。这在一定程度上,说明使用上下文信息,可以帮助深度网络取得较好的性能。提及SENet里面使用squeeze操作实现上下文聚集器,squeez操作就是全局平均值池化。将上下文信息模块分解为聚集和激活两种操作。
2 Gather-Excite框架
受bag-of-visual-words启发。GE操作如图1所示。原文描述聚集操作非常正式(复杂),简单地说,就是在特征图上,逐层使用不同大小的滤波器(带参数或不带参数)去聚集特征响应。不同大小就是选择操作的范围(extent)。激活操作就是把聚集操作后收集到的上下文信息,重新恢复到原来特征图的空间大小,然后与之进行相乘。
3 模型和实验
探索和评估Gather-Excite框架的可能化身,即具体实现聚集和激活的几种可能。
3.1 无参数的聚集激活对
可以使用无参数的操作实现聚集-激活对(GE pairings)。聚集操作,利用不同步长的平均值池化(average pooling)实现。激活操作,利用resize,sigmoid和multiply实现,其中resize使用最近邻插值方法。将这种模型记作