See Better Before Looking Closer: Weakly Supervised Data Augmentation Network for Fine-Grained Visu

See Better Before Looking Closer: Weakly Supervised Data Augmentation Network for Fine-Grained Visual Classification

 

一篇基于attention 机制的细粒度分类模型

细粒度是粗粒度的延深,类间差距小,类内差距大。 早期的研究中主要使用较多的人工标注来认为的定位attention区域。但是这样会造成很高的成本。

 

本文主要贡献

  1. 与很多传统的数据增强方式不同,本文使用了一种新的弱监督数据增强网络WS-DAN。因为原始的数据增强会引入更多的背景噪声。
  2. 首先通过若监督学习,生成一些maps来表示判别关注区域,然后随机抽取这些map对数据增强(主要的方式有attention crop and attention drop)。

  1. 使用基于attention数据增强策略。主要是attention crop以及attention drop。Attention crop,随机剪切并且resize一个attention 区域。促进局部特征的表达。Attention drop就是随机消除一个激活区域,这样可以促进模型抽取特征其他特征判别区域。

 

弱监督attention 学习

 

首先给出定义,图像表示为I

Feature maps 表示为

Activation maps

其中activation maps是通过卷积来获得的

其中f 代表的卷积, a代表图像的部位。

 

网络结构

 

训练部分

 

测试部分

测试部分主要分成两个部分,第一个部分使用原始图片,输出类别概率,以及attention maps。第二步,使用attention maps,进行数据增强再次进行一次预测,然后将两个类别结合到一起作为最终类别。

Attention pooling

 

生成attention map之后,将attention map 和 F做点乘

 

然后再使用pooling或者卷积算法提取attention feature

最后提取的特征如下

最后的矩阵是用P来代表

 

Attention Center Loss

 

使用attention center loss, 进行若监督attention 的学习。

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值