【深度学习基础】PyTorch实现VGG亲身实践

本文介绍了VGG网络的关键信息,即利用小尺寸卷积核减少参数,并提供了在PyTorch中实现VGG的详细步骤,包括添加头文件、构建VGG类、网络结构设计以及网络测试。实践中,作者引入了BN层并讨论了其放置位置的选择。
摘要由CSDN通过智能技术生成

1. 论文关键信息

VGG的思路就是利用多个小尺寸的卷积核串联代替之前网络的大尺寸卷积核,在保持感受野不下降的前提下,减少网络的参数。虽然VGG提出较早,但它仍用在计算机视觉的各个领域内,常被作为骨架网络的一部分;VGG的利用小尺寸卷积核的思路也是后续很多优秀网络结构的原始启发。

闲话少叙,论文中,VGG复现的关键信息是下面这张表:
在这里插入图片描述

2. PyTorch实现

2.1 添加头文件

import torch.nn as nn
import torch.nn.functional as F
from torchsummary import summary

2.2 实现VGG构造类

  1. 通过上表,我们可以看到,论文提出的几种不同深度的网络从大的结构上讲都分为五组,每组之内的卷积层参数都是一样的,我们可以构造一个通用的类,减少很多重复代码。
  2. 原文中VGG都还不包括BN层,我的复现引入了BN层。
  3. 关于BN层是放在ReLU层前面还是后面,有不同的说法。BN在提出的论文中是放在ReLU前面的,但是有说法称使用ReLU作为激活单元的时候,将BN层放在其后面的实践效果更好。由于我没有在数据集上验证,所以采用官方的做法,放在卷积层之后,ReLU之前。实践中可以根据训练效果自行调整。
class VGG(nn.Module):
    """
    VGG builder
    """
    def __init__(self, arch: object, num_classes=1000) -> object:
        super(VGG, self).__init__()
        self.in_channels = 3
        self.conv3_64 = self.__make_layer(64, arch[0])
        self.conv3_128 = self.__make_layer(128, arch[1])
        self.conv3_256 =
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

蔡逸超

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值