TF2-复现VGG网络结构

本文介绍了VGG网络结构,通过Tensorflow 2复现了VGG16与VGG19。VGG网络采用连续3x3卷积核代替大卷积核,减少了参数数量并增加了网络深度。文章详细阐述了VGG16和VGG19的隐藏层构成,并承诺下期将实现Inception网络。
摘要由CSDN通过智能技术生成

上期我们分享了LeNet与AlexNet的网络结构,今天我们来利用Tensorflow 2复现VGG16与VGG19的网络结构。

VGG网络结构

VGG16相比AlexNet的一个改进是采用连续的几个3x3的卷积核代替AlexNet中的较大卷积核(11x11,7x7,5x5)。对于给定的感受野(与输出有关的输入图片的局部大小),采用堆积的小卷积核是优于采用大的卷积核,因为多层非线性层可以增加网络深度来保证学习更复杂的模式,而且代价还比较小(参数更少)。

在这里插入图片描述

  • VGG16包含了16个隐藏层(13个卷积层和3个全连接层),如上图中的D列所示。

  • VGG19包含了19个隐藏层(16个卷积层和3个全连接层),如上图中的E列所示。

VGG的网络结构看起来很简洁,但它较为耗计算资源。下面我们分别来实现VGG16与VGG19。

VGG16

Se-VGG16是一种基于VGG16网络结构,它在VGG16的基础上进行了改进。VGG16是一个经典的卷积神经网络模型,由13个卷积层和3个全连接层组成,深度为16。Se-VGG16VGG16的基础上添加了SE模块,这是一种注意力机制,用于增强模型的表示能力和泛化能力。 SE模块通过学习特征通道之间的关系,自适应地调整每个通道的权重。它包含两个关键步骤:先进行全局平均池化,将特征图的每个通道压缩成一个标量;然后,使用两个全连接层,将这个标量压缩成一个介于0和1之间的权重。最后,将这个权重乘以原始的特征图,得到加权后的特征图。 Se-VGG16网络结构VGG16相似,都由多个卷积层和全连接层组成。不同之处在于Se-VGG16在每个卷积块的最后一个卷积层后添加了一个SE模块。这样,每个卷积块都会自适应地调整特征通道的权重,以提高模型的表达能力。 总结起来,Se-VGG16是在VGG16基础上添加了SE模块的改进版。这种改进能够提高模型的表达能力和泛化能力,进一步提升了模型的性能。 : VGGNet模型有A-E五种结构网络,深度分别为11,11,13,16,19。其中较为典型的网络结构主要有vgg16vgg19,本篇文章主要讲VGG16,并分享VGG16的Pytorch实现。 : 首先介绍一下感受野的概念。在卷积神经网络中,决定某一层输出结果中一个元素所对应的输入层的区域大小,被称作感受野(receptive field)。通俗的解释是,输出feature map上的一个单元对应输入层上的区域大小。 VGG亮点。 : keras官方预训练模型vgg16_weights_tf_dim_ordering_tf_kernels_notop.h5。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

DataAssassin

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值