「Deep Learning」Note on Gather and Excite Network (GENet)

QQ Group: 428014259
Sina Weibo:小锋子Shawn
Tencent E-mail:[email protected]
http://blog.csdn.net/dgyuanshaofeng/article/details/84179196

SENet之后,Jie Hu和Li Shen等人又提出GENet[1]。

作者:Jie Hu, Li Shen, Samuel Albanie, Gang Sun, Andrea Vedaldi
单位:Momenta, Visual Geometry Group University of Oxford

0 摘要

指出自底向上局部操作(bottom-up local)虽然可以匹配自然图像的统计信息,但是可能防止模型捕获上下文的长范围的特征交互。作者提出简单方法,探索上下文信息利用(context exploitation)。引出一对操作,聚集gather和激活excite。聚集gather,用于在某个较大空间范围内,有效地聚集(aggregate)特征响应;激活excit,用于重新分配(redistribute)上面的池化信息到局部特征上。带有gather-and-excite操作的ResNet-50,可以超越ResNet-101。

1 介绍

context上下文信息,不仅可以在图像空间上,还可以在特征空间上,即feature context。著名的auto-context,即appearance context。以前,我们会计算全连接层在输入图像上的感受野,但是有效的感受野比计算的感受野会小得多[2]。这在一定程度上,说明使用上下文信息,可以帮助深度网络取得较好的性能。提及SENet里面使用squeeze操作实现上下文聚集器,squeez操作就是全局平均值池化。将上下文信息模块分解为聚集和激活两种操作。

2 Gather-Excite框架

受bag-of-visual-words启发。GE操作如图1所示。原文描述聚集操作非常正式(复杂),简单地说,就是在特征图上,逐层使用不同大小的滤波器(带参数或不带参数)去聚集特征响应。不同大小就是选择操作的范围(extent)。激活操作就是把聚集操作后收集到的上下文信息,重新恢复到原来特征图的空间大小,然后与之进行相乘。

图 1:gather-excite操作对

3 模型和实验

探索和评估Gather-Excite框架的可能化身,即具体实现聚集和激活的几种可能。

3.1 无参数的聚集激活对

可以使用无参数的操作实现聚集-激活对(GE pairings)。聚集操作,利用不同步长的平均值池化(average pooling)实现。激活操作,利用resize,sigmoid和multiply实现,其中resize使用最近邻插值方法。将这种模型记作

  • 2
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值