空洞卷积过程可视化

空洞卷积

空洞卷积的作用是在不增加参数量的情况下,增大感受野,获得更多的特征。

空洞卷积中padding与dilation所使用的因子需要是相同的,否则,可能会导致图像的尺寸会发生变化,导致就不是膨胀卷积。

假如卷积核为3*3,膨胀因子为2,那么padding必须为2,否则,它经过膨胀卷积之后,它的尺寸会变小。

import torch.nn as nn
# import torch
from torchstat import stat


# from torchsummary import summary

# from nets.ghostnet import ghostnet
class Conv(nn.Module):
    def __init__(self):
        super(Conv, self).__init__()
        self.conv = nn.Sequential(
            nn.MaxPool2d()

        )


class ConvModule(nn.Module):
    def __init__(self):
        super(ConvModule, self).__init__()
        # 定义六层卷积层
        # 两层HDC(1,2,5,1,2,5)
        self.conv = nn.Sequential(
            # 第一层 (3-1)*1+1=3 (64-3)/1 + 1 =62
            nn.Conv2d(in_channels=32, out_channels=32, kernel_size=3, stride=1, padding=1, dilation=1),
            nn.BatchNorm2d(32),
            # inplace-选择是否进行覆盖运算
            nn.ReLU(inplace=True),
            # 第二层 (3-1)*2+1=5 (62-5)/1 + 1 =58
            nn.Conv2d(in_channels=32, out_channels=32, kernel_size=3, stride=1, padding=2, dilation=2),
            nn.BatchNorm2d(32),
            # inplace-选择是否进行覆盖运算
            nn.ReLU(inplace=True),
            # 第三层 (3-1)*5+1=11  (58-11)/1 +1=48
            nn.Conv2d(in_channels=32, out_channels=32, kernel_size=3, stride=1, padding=5, dilation=5),
            nn.BatchNorm2d(32),
            # inplace-选择是否进行覆盖运算
            nn.ReLU(inplace=True),
        )

    def forward(self, x):
        out = self.conv(x)
        return out


stat(ConvModule(), (32, 13, 13))

空洞卷积部分的代码,来自如下链接。

https://blog.csdn.net/qq_37534947/article/details/109727232

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值