浅谈深度神经网络 — GoogLeNet

GoogLeNet

在这里插入图片描述
GoogLeNet网络

GoogLeNet是2014年Christian Szegedy提出的一种全新的深度学习结构,ImageNet-2014竞赛第一。在这之前的AlexNet、VGG等结构都是通过增大网络的深度(层数)来获得更好的训练效果,但层数的增加会带来很多负作用,比如overfit、梯度消失、梯度爆炸等。inception的提出则从另一种角度来提升训练结果:能更高效的利用计算资源,在相同的计算量下能提取到更多的特征,从而提升训练结果。

进化顺序: InceptionV1 -> InceptionV2 -> InceptionV3 -> InceptionV4
为了提升网络的性能,深度网络的发展一般都是通过减少参数,降低计算,增加宽度、深度来提高网络的性能。GoogLeNet网络的深度、宽度也在增加,从V1到V4Inception网络在不断的完善。

  • 宽度:增加了多种核1×1,3×3,5×5和max pooling,增加网络的厚度,也就是宽度,但是考虑到简单的拼接到一起的话参数太多,计算量的问题,在,3×3,5×5和max pooling前加入了1×1的卷积核,以起到降低输入特征网络的厚度,通过降维这样就可以起到降低计算量的作用。

-> InceptionV1

核心组件Inception Architecture(稀疏连接结构)

① 提供多尺度特征:输出通道多尺度化(感受野

  • 首个Split-Merge思想
  • 串接合并所有分支输出

Bottleneck Layer 的 1×1 卷积解决多尺度带来的高额参数及计算问题

V1结构

通过设计一个稀疏网络结构,但是能够产生稠密的数据,既能增加神经网络表现,又能保证计算资源的使用效率。谷歌作者提出了最原始Inception的基本结构:

在这里插入图片描述

结构说明:
1 . 采用不同大小的卷积核意味着不同大小的感受野,最后拼接意味着不同尺度特征的融合。
2 . 之所以卷积核大小采用1、3和5,主要是为了方便对齐。设定卷积步长stride=1之后,只要分别设定pad=0、1、2,那么卷积之后便可以得到相同维度的特征,然后这些特征就可以直接拼接在一起了。
3 . 文章说很多地方都表明Pooling挺有效,所以Inception里面也嵌入了,同时Pooling池化也起到减少空间大小,降低过度拟合的作用。
4 . 网络越到后面,特征越抽象,而且每个特征所涉及的感受野也更大了,因此随着层数的增加,3x3和5x5卷积的比例也要增加。

但是在上面的结构中使用 5×5 的网络结构仍然会带来很大的计算量,因此Inception借鉴了其他的网络结构,在3×3,

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
回答: 《深度学习、优化与识别》这本书共分为两个部分,第一部分系统论述了深度学习的理论和算法,包括深度前馈神经网络深度卷积神经网络深度堆栈神经网络深度递归神经网络深度生成网络、深度融合网络等。第二部分则介绍了常用的深度学习平台以及在高光谱图像、自然图像、SAR与极化SAR影像等领域的应用。最后一章总结了深度学习的发展历史、前沿方向和进展。\[1\] 这本书不仅介绍了深度学习和神经网络的基础知识,还深入讲解了误差反向传播法、卷积神经网络等算法。此外,它还介绍了深度学习相关的实用技巧,如自动驾驶、图像生成、强化学习等应用,并解答了为什么加深层可以提高识别精度等问题。\[2\] 深度学习网络是指具有五层至十层甚至更多的神经网络,并引入了更有效的算法。与传统神经网络相比,深度学习网络利用无监督学习对每一层进行逐层训练,学习特征;然后将每层的训练结果作为更高一层的输入;最后使用监督学习从上到下进行微调,学习整个模型。\[3\]这种逐层训练和微调的方式使得深度学习网络能够更好地学习和提取数据的特征,从而提高识别精度。 #### 引用[.reference_title] - *1* *2* [深入浅出神经网络pdf,神经网络 pdf](https://blog.csdn.net/jiefu6666/article/details/126660593)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [深入浅出神经网络深度学习-深度学习(四)](https://blog.csdn.net/wudaoshihun/article/details/80585711)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值