动手学深度学习_GoogLeNet / Inceptionv1v2v3v4

GoogLeNet 是根据 NiN 中串联网络的思想,在此基础上进行改进。篇论文的一个重点是解决了什么样大小的卷积核最合适的问题。 毕竟,以前流行的网络使用小到 1 × 1,大到 11 × 11 的卷积核。 本文的一个观点是,有时使用不同大小的卷积核组合是有利的。这里我们写的代码,是GoogLeNet 的简化版,原版的实现我贴到最后,就不逐一分析了,基本思路一致。

在GoogLeNet中,基本的卷积块被称为 Inception 块(Inception block)

Inception block:

class Inception(nn.Module):
    # c1--c4是每条路径的输出通道数
    def __init__(self, in_channels, c1, c2, c3, c4, **kwargs):
        super(Inception, self).__init__(**kwargs)
        # 线路1,单1x1卷积层
        self.p1_1 = nn.Conv2d(in_channels, c1, kernel_size=1)
        # 线路2,1x1卷积层后接3x3卷积层
        self.p2_1 = nn.Conv2d(in_channels, c2[0], kernel_size=1)
        self.p2_2 = nn.Conv2d(c2[0], c2[1], kernel_size=3, padding=1)
        # 线路3,1x1卷积层后接5x5卷积层
        self.p3_1 = nn.Conv2d(in_channels, c3[0], kernel_size=1)
        self.p3_2 = nn.Conv2d(c3[0], c3[1], kernel_size=5, padding=2)
        # 线路4,3x3最大汇聚层后接1x1卷积层
        self.p4_1 = nn.MaxPool2d(kernel_size=3, stride=1, padding=1)
        self.p4_2 = nn.Conv2d(in_channels, c4, kernel_size=1)

    def forward(self, x):
        p1 = F.relu(self.p1_1(x))
        p2 = F.relu(self.p2_2(F.relu(self.p2_1(x))))
        p3 = F.relu(self.p3_2(F.relu(self.p3_1(x))))
        p4 = F.relu(self.p4_2(self.p4_1(x)))
        # 在通道维度上连结输出
        return torch.cat((p1, p2, p3, p4), dim=1)

 这是我们今天要实现的简化版 GoogLeNet 。我们把它分成5个块,分别依据是高宽减半称为一个 Stage 。

Stage 1 :输出 64 通道,7 x 7 的卷积层;(这里还是使用 MNIST,所以一开始输入通道是 1 ,最后输出是 10)

b1 = nn.Sequential(nn.Conv2d(1, 64, kernel_size=7, stride=2, padding=3),
                   nn.ReLU(),
                   nn.MaxPool2d(kernel_size=3, stride=2, padding=1))

Stage 2 :输出64通道, 1 x 1 的卷积层;输出通道 192 ,3 × 3 卷积层; 

b2 = nn.Sequential(nn.Conv2d(64, 64, kernel_size=1),
                   nn.ReLU(),
                   nn.Conv2d(64, 192, kernel_size=3, padding=1),
                   nn.ReLU(),
                   nn.MaxPool2d(kernel_size=3, stride=2, padding=1))

Stage 3 :

第一个 Inception 块的输出通道数(从左到右)为 64+128+32+32=256 ,其中路径 2 和 3 首先将输入通道的数量分别减少到 96 和 16 ,然后连接其第二个卷积层。

第二个 Inception  块的输出通道数为 128+192+96+64=480 ,其中路径 2 和 3 首先将输入通道的数量分别减少到 128 和 32 ,然后连接其第二个卷积层。

b3 = nn.Sequential(Inception(192, 64, (96, 128), (16, 32), 32),
                   Inception(256, 128, (128, 192), (32, 96), 64),
                   nn.MaxPool2d(kernel_size=3, stride=2, padding=1))

Stage 4:第四模块更加复杂, 它串联了5个Inception块。

第一个 Inception 块的输出通道数为192+208+48+64=512 ,其中路径 2 和 3 首先将输入通道的数量分别减少到 96 和 16 ,然后连接其第二个卷积层。

第二个 Inception 块的输出通道数为160+224+64+64=512 ,其中路径 2 和 3 首先将输入通道的数量分别减少到 112 和 24 ,然后连接其第二个卷积层。

第三个 Inception 块的输出通道数为 128+256+64+64=512 ,其中路径 2 和 3 首先将输入通道的数量分别减少到 128 和 24 ,然后连接其第二个卷积层。

第四个 Inception 块的输出通道数为 112+288+64+64=528 ,其中路径 2 和 3 首先将输入通道的数量分别减少到 144 和 32 ,然后连接其第二个卷积层。

第五个 Inception 块的输出通道数为 256+320+128+128=832 ,其中路径 2 和 3 首先将输入通道的数量分别减少到 160 和 32 ,然后连接其第二个卷积层。

b4 = nn.Sequential(Inception(480, 192, (96, 208), (16, 48), 64),
                   Inception(512, 160, (112, 224), (24, 64), 64),
                   Inception(512, 128, (128, 256), (24, 64), 64),
                   Inception(512, 112, (144, 288), (32, 64), 64),
                   Inception(528, 256, (160, 320), (32, 128), 128),
                   nn.MaxPool2d(kernel_size=3, stride=2, padding=1))

Stage 5:

第一个 Inception 块的输出通道数为 256+320+128+128=832 ,其中路径 2 和 3 首先将输入通道的数量分别减少到 160 和 32 ,然后连接其第二个卷积层。

第二个 Inception 块的输出通道数为 384+384+128+128=1024  ,其中路径 2 和 3 首先将输入通道的数量分别减少到 192 和 48 ,然后连接其第二个卷积层。

然后紧跟一个全局平均池化层,将每个通道的高和宽降低为 1 x 1 ,最后 Flatten 展平。

b5 = nn.Sequential(Inception(832, 256, (160, 320), (32, 128), 128),
                   Inception(832, 384, (192, 384), (48, 128), 128),
                   nn.AdaptiveAvgPool2d((1,1)),
                   nn.Flatten())

net = nn.Sequential(b1, b2, b3, b4, b5, nn.Linear(1024, 10))
Sequential output shape:     torch.Size([1, 64, 24, 24])
Sequential output shape:     torch.Size([1, 192, 12, 12])
Sequential output shape:     torch.Size([1, 480, 6, 6])
Sequential output shape:     torch.Size([1, 832, 3, 3])
Sequential output shape:     torch.Size([1, 1024])
Linear output shape:         torch.Size([1, 10]) 

Inceptionv1v2v3v4的代码我放到这里,有需要的可以去下载:Inception​​​​​​​

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值