17-ICCV-Learning Multi-Attention Convolutional Neural Network for Fine-Grained Image Recognition

MA-CNN多注意力

part generation和feature learning相互强化【和RA-CNN类似】

首先固定卷积层W,通过Lcng优化F。

其次固定F,通过Lcls调整W。

【复现代码loss也是和MMAL代码一样直接求和再反向传播的,关键通过detach控制】

论文中写的还是裁剪原图得到part图片重新又用part-CNN学习了P。

Mask峰值点Mi的原图对应点为中心,裁剪96x96区域放大(224*224)->PN

1定位:聚类响应区域相近的通道。而不是从独立的信道中学习部件生成。

【feature map 不同通道(channels)关注的视觉信息不同,峰值响应区域也不同。】

每个feature channel 都有一个峰值响应点(peak responses coordinate)

多个part proposals,提高泛化能力。

(2)

N组FC layers:F(·)=[f1(·),…, fN(·)]

(3)

预训练fc参数,使(3)的输出接近于(2)。

同类channel相加(sigmoid所以mask函数还是连续的)得到class i 的mask i

2 LOSS:channel grouping loss,part内距离更近(intra-class similarity),不同part距离尽量远(inter-class separability)

作者代码https://github.com/Jianlong-Fu/Multi-Attention-CNN

复现代码https://github.com/LiAng199523/Multi-Attention-CNN-pytorch

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值