TensorFlow实现经典深度学习网络(2):TensorFlow实现VGGNet

本文介绍了VGGNet,一种由牛津大学视觉几何组提出的深度学习网络,它在ILSVRC-2014中表现出色。VGGNet通过堆叠3×3卷积核和2×2最大池化层,构建了16~19层的深度网络,以探究网络深度对性能的影响。文章详细阐述了VGGNet的网络结构、参数量,并提供了使用TensorFlow搭建VGGNet版本D的代码,同时展示了forward和backward运算的时间。作者将继续分享深度学习的相关知识和技术。
摘要由CSDN通过智能技术生成

TensorFlow实现经典深度学习网络(2):TensorFlow实现VGGNet


        VGGNet是经典的深度学习网络之一,由牛津大学的视觉几何组(Visual Geometry Group)提出,是ILSVRC-2014中定位任务第一名和分类任务第二名(top-5错误率7.3%,19层神经网络)。其探索了卷积神经网络的深度与其性能之间的关系,拓展性很强,通过反复堆叠3×3的小型卷积核和2×2的最大池化层,成功构筑了16~19层深的卷积神经网络,增加网络深度可以有效提升模型的效果,而且VGGNet对其他数据集具有很好的泛化能力。到目前为止,VGGNet依然常被用来提取图像特征。



        VGGNet论文中全部使用来3×3的卷积核和2×2的池化核,通过不断加深网络结构来提升性能。上图为VGGNet各级别的网络结构图和各级别网络参数量。VGGNet拥有5段卷积,每一段有2~3个卷积层,同时每段尾部连有最大池化层来缩小图片尺寸。VGGNet为了在公平的原则下探究网络深度对模型精确度的影响,所有卷积层有相同的配置,即卷积核大小为3x3,步长为1,填充为1;共有5个最大池化层,大小都为2x2,步长为2;共有三个全连接层,前两层都有4096通道,第三层共1000路及代表1000个标签类别;最后一层为softmax层;所有隐藏层后都带有ReLU非线性激活函数;经过实验证明,AlexNet中提出的局部响应归一化(LRN)对性能提升并没有什么帮助,而且还浪费了内存的计算的损耗。可以说,VGGNet使得CNN对特征的学习能力更强。

        VGGNet的突出影响包括:

       (1)一个大卷积核分解成连续多个小卷积核;

       (2)减少参数,降低计算,增加深度;

       (3)继承AlexNet结构特点:简单,有效;

       (4)网络改造的首选基础网络

        因使用ImageNet数据集非常耗时,因此本文会对完整的VGGNet网络进行速度测试,评测forward耗时和backward耗时。若读者感兴趣,可自行下载ImageNet数据集进行训练测试。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值