VGGNet理解

背景

相较于AlxNet,使用更小卷积核(层数加深,参数减少)。

来源:VGG模型是2014年ILSVRC竞赛的第二名,第一名是GoogLeNet。但是VGG模型在多个迁移学习任务中的表现要优于googLeNet。而且,从图像中提取CNN特征,VGG模型是首选算法。它的缺点在于,参数量有140M之多,需要更大的存储空间。

先来看看VGG这篇论文《Very Deep Convolutional Networks for
Large-Scale Image Recognition》

论文中几个模型主要以几下几种方案A、B、C、D、E。目前主要还是采用VGG16和VGG19也就是下图中的分别红框和绿框部分。
在这里插入图片描述

下面是VGG16:

其中包含13层卷积(卷积核均为3*3,步长为1,填充为1)、5个池化层(kernal_size=2,步长为2)、3个全连接层。其示意图如下:

在这里插入图片描述

其中VGG19比VGG16多了三层卷积层,其余相同。

下面是VGG16_bn:

其中包含13层卷积(卷积核均为3*3,步长为1,填充为1)、13层dropout层、5个池化层(kernal_size=2,步长为2)、3个全连接层。下面是网络示意图:

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

与VGG16不同点在于,在每一层卷积之后添加了dropout层,用于防止过拟合。其中VGG19_bn比VGG16_bn多了三层卷积层,其余相同。

VGG相较于AlxNet的改进点:

  1. 所有的卷积层使用的都是3*3的卷积核。使用多个较小卷积核的卷积层代替一个卷积核较大的卷积层,一方面可以减少参数,另一方面相当于进行了更多的非线性映射,可以增加网络的拟合 / 表达能力。

  2. 使用max pooling,但并不是所有的卷积层后面都跟着pooling层,一共只有5个max pooling层。kernel大小是2*2,步长为2,也就是说,和AlexNet不同,VGGNet使用的是不重叠的pooling。

  3. 没有使用AlexNet中的LRN技术。这是因为后面的实验中证明了使用LRN对性能并没有提升作用,反而增加内存和时间消耗。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: VGGNet是一种经典的卷积神经网络,它的网络结构由多个卷积层和池化层交替组成,最后连接多个全连接层实现分类任务。具体而言,VGGNet包含了16个卷积层和3个全连接层的结构,并且只使用了3x3大小的卷积核和2x2的最大池化层。它的网络深度和参数量相对较大,但具有很好的泛化性能和分类准确率。 ### 回答2: VGGNet是一种深度卷积神经网络模型,由牛津大学的研究团队提出。它的全名是Very Deep Convolutional Networks for Large-Scale Image Recognition,也就是为大规模图像识别而设计的非常深的卷积网络。 VGGNet主要特点是采用了很小的3x3卷积核和池化层,使得网络的层数变深。它的基本结构是由多个堆叠的卷积层和池化层组成,最后接上全连接层用于分类任务。 具体来说,VGGNet使用了多个卷积层,每个卷积层都包括多个3x3的卷积核和同样尺寸的池化层。通过多次的卷积和池化操作,网络可以提取出图像的更高级别的特征。在VGGNet中,每个卷积层都是连续的,没有跳过层或者跳过连接,这种简单而规律的结构使得网络易于理解和实现。 在VGGNet中,卷积层和池化层的输出通常是逐渐减小的,而通道数则随着网络的加深而逐渐增加。最终,将卷积层的输出展平后,接上一些全连接层进行分类或回归等任务。 VGGNet的结构比较经典,它在实际应用中表现出了很好的泛化能力和识别性能。尤其在ImageNet图像分类竞赛中,VGGNet的表现非常出色,凭借着较深的网络结构和较小的卷积核,取得了很好的成绩,成为了深度学习发展的重要里程碑之一。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值