【论文浅读】《Weakly Supervised Attention Pyramid Convolutional Neural Network for Fine-Grained Visual Cla》

创新思想:

文章提出了Attention Pyramid Convolutional Neural Network (AP-CNN) 注意金字塔卷积神经网络,提高了对对象子类分类的效率。该网络主要分为两大部分Attention Pyramid和ROI Pyramid:

Attention Pyramid:注意金字塔;top-down高层语意、bottom-up低层特征;

ROI Pyramid:感兴趣区域导向金字塔;dropblock细化特征、zoom-in消除噪声。

主要原理:

在这里插入图片描述
整体结构:(a)(b)Attention Pyramid和©ROI Pyramid。
在这里插入图片描述
Attention Pyramid结构:
(a) spatial attention pyramid:通过反卷积获取低层特征;
(b) channel attention pathway:通过池化和两次激活获取高层语意;

在这里插入图片描述
(b) channel attention pathway中的池化激活公式表达式。
在这里插入图片描述
ROI Pyramid示意图:
灰色dropblock:通过随机丢弃一些特征块,降低过拟合,细化特征;
黑框zoom-in:放大有效区域,消除噪声。

主要实验结果:

在这里插入图片描述
用了AP的金字塔网络的正确率比不用金字塔和只用特征金字塔的要高。
在这里插入图片描述
对比不同AP,其中:
C: Channel attention;
S: Spatial attention;
SP: Bottom-up spatial attention pathway;
CP: Bottom-up channel attention pathway;
在这里插入图片描述
对比ROI是否启用dropblock和zoom-in的正确率。

在这里插入图片描述
三个数据集的效果展示。

算法

在这里插入图片描述

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值