近期在学习See Better Before Looking Closer: Weakly Supervised Data Augmentation Network for Fine-Grained Visual Classification的pytorch版本代码地址
本文对blocks.py进行解读,由于本人是小白,理解错误的地方请批评指正。本文件包含两个模块,实现CBAM,和SPP功能。
import math
import torch
import torch.nn as nn
import numpy as np
__all__ = ['CBAMLayer', 'SPPLayer']
'''
Woo et al.,
"CBAM: Convolutional Block Attention Module",
ECCV 2018,
arXiv:1807.06521
'''
#Convolutional Block Attention Module (CBAM) 是一种卷积模块的注意力机制模块,
# 结合了空间(spatial)和通道(channel)的注意力机制模块。
# 相比于senet只关注通道(channel)的注意力机制可以取得更好的效果。
#论文https://arxiv.org/abs/1807.06521
#在resnet.py中被引用。
class CBAMLayer(nn.Module):
def __init__(self, channel, reduction=16, spatial_kernel=7):
super(CBAMLayer, self).__init__()
# channel attention
self.avg_pool = nn.AdaptiveAvgPool2d(1)# 自适应平均池化,输出为1维,用于压缩
self.max_pool = nn.AdaptiveMaxPool2d(1