WS_DAN算法代码研读之blocks.py(二)

本文详细解读了弱监督数据增强网络(WS_DAN)的pytorch实现代码,特别是blocks.py文件中涉及的CBAM模块和SPP模块。作者作为一个初学者,分享了对这两个关键组件的理解,并欢迎读者纠正可能存在的错误。
摘要由CSDN通过智能技术生成

近期在学习See Better Before Looking Closer: Weakly Supervised Data Augmentation Network for Fine-Grained Visual Classification的pytorch版本代码地址
本文对blocks.py进行解读,由于本人是小白,理解错误的地方请批评指正。本文件包含两个模块,实现CBAM,和SPP功能。

import math
import torch
import torch.nn as nn
import numpy as np

__all__ = ['CBAMLayer', 'SPPLayer']

'''
    Woo et al., 
    "CBAM: Convolutional Block Attention Module", 
    ECCV 2018,
    arXiv:1807.06521
'''
#Convolutional Block Attention Module (CBAM) 是一种卷积模块的注意力机制模块,
# 结合了空间(spatial)和通道(channel)的注意力机制模块。
# 相比于senet只关注通道(channel)的注意力机制可以取得更好的效果。
#论文https://arxiv.org/abs/1807.06521
#在resnet.py中被引用。
class CBAMLayer(nn.Module):
    def __init__(self, channel, reduction=16, spatial_kernel=7):
        super(CBAMLayer, self).__init__()
        # channel attention
        self.avg_pool = nn.AdaptiveAvgPool2d(1)# 自适应平均池化,输出为1维,用于压缩
        self.max_pool = nn.AdaptiveMaxPool2d(1
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值