Selective Kernel Networks

选择核心网络——SKNet(解读)(源论文


SK模型

文章指出,在神经科学界,视皮层神经元的感受野大小受刺激的调节,即对不同刺激,卷积核的大小应该不同,但这在构建CNN时一般在同一层只采用一种卷积核,很少考虑多个卷积核的作用。

文中提出了一种在CNN中对卷积核的动态选择机制,该机制允许每个神经元根据输入信息的多尺度自适应地调整其感受野(卷积核)的大小。设计了一个称为选择性内核单元(SK)的构建块,其中,多个具有不同内核大小的分支在这些分支中的信息引导下,使用SoftMax进行融合。由多个SK单元组成SKNet,SKNet中的神经元能够捕获不同尺度的目标物体。


SK组成

“选择性核”(SK)卷积,它由三个运算符组成:分裂(Split)、融合(Fuse)和选择(Select)。Split算子产生多条不同核大小的路径,上图中的模型只设计了两个不同大小的卷积核,实际上可以设计多个分支的多个卷积核。fuse运算符结合并聚合来自多个路径的信息,以获得用于选择权重的全局和综合表示。select操作符根据选择权重聚合不同大小内核的特征图。

(1)Split:如模型图所示,使用多个卷积核对 X 进行卷积,以形成多个分支。

图中使用3×3和5×5的卷积核的两个分支,为了进一步提高效率,将常规的5x5卷积替换为5x5的空洞卷积,即3x3,rate = 2卷积核。下图为5x5的空洞卷积。

(2)Fuse:首先通过元素求和从多个分支中融合出结果。

通过简单地使用全局平均池来嵌入全局信息,从而生成信道统计信息S,s∈R^CC是模型图中S的特征维数或公式s的特征维数。

 

通过一个简单的全连接(fc)层创建了一个紧凑的特征Z,使其能够进行精确和自适应的选择特征,同时减少了维度以提高效率。z∈R^{d\times 1}

其中 δ 是relu函数,B表示批标准化,W∈R^{d\times ×C}。为了研究 d(全连接后的特征维数,即公式z或模型图中Z的特征维数) 对模型效率的影响,我们使用一个折减比 r 来控制其值。

L表示d的极小值,通过 L=32 是原文中实验的设置。

(3)Select:按照信道的方向使用softmax

然后与Split卷积后的特征进行乘和求和操作,

通过这两个分支的情况,可以推断更多分支的情况。

通过在自然图像中放大目标对象和缩小背景来模拟刺激,以保持图像大小不变。结果发现,当目标物体越来越大时,大多数神经元会越来越多地从更大的核路径中收集信息。这些结果表明,所提出的sknet中的神经元具有自适应的感受野大小。


实验(前两个)

(1)

224×表示待评价的单个224×224,同样为320×。SENets/ sknet都基于相应的ResNeXt。

(2)

当具有更高深度/宽度/基数的模型的计算成本增加以匹配sknet时,对ImageNet验证集的比较。括号中的数字表示性能的提高。


网络源码

源码链接:https://github.com/implus/SKNet

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

肥羊汤

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值