深度残差网络_深度卷积网络之残差网络

e5fb9df57e8c9fa5bf35f0ea7333a44f.png

源自 「吴恩达」 老师的深度学习课程。

对已学知识做个小结。

深度卷积网络之残差网络

Outline

  • Classic networks:
    • LeNet-5
    • AlexNet
    • VGG
  • ResNet
  • Inception

2 ResNets

  • 目的
    • 解决当时深度学习网络随着网络层数加深而产生的退化问题
  • 解决方法
    • 恒等映射
  • 应用
    • 图像识别

2.1 退化

  • 退化
    • 当模型层数增加到某种程度,模型的效果将会不升反降的现象
  • 退化原因
    • 由于非线性激活函数Relu的存在,每次输入到输出的过程都几乎是不可逆的(信息损失)。我们很难从输出反推回完整的输入。
    • 我自己的理解就是随着层数的增加,信息即特征丢失的越来越少,模型自然不能更好的拟合,效果自然下降。

2.2 恒等映射

  • 恒等映射定义

    • 假设一个比较浅的网络已经可以达到不错的效果,那么即使之后堆上去的网络什么也不做,模型的效果也不会变差。
    • 然而事实上,“什么都不做”恰好是当前神经网络最难做到的东西之一。
    • 这种神经网络丢失的“什么都不做”的品质叫做恒等映射(identity mapping)。
  • 恒等映射实现

    • 映射函数H(x) = x
    • 假设把网络设计为H(x) = F(x) + x(即直接把恒等映射作为网络的一部分)
    • 学习残差函数F(x) = H(x) - x
    • 「只要F(x)=0,就构成了一个恒等映射H(x) = x」
  • 参见Resnet到底在解决一个什么问题[1]

2.3Residual block

  • 残差

    • 残差在数理统计中是指实际观察值与估计值(拟合值)之间的差
  • 残差块的实现6b8fde482b7cd58595e10d30b671ceb5.png

    • 右侧的曲线叫做跳接,通过跳跃连接可以实现恒等映射
    • 为了实现跳跃连接,ResNets使用same卷积,保留维度
    • 残差块插入的时机是在线性激活之后,ReLU 激活之前
    • 「残差块,也就是一个两层及以上的隐藏单元可以学习到有用的信息,而加入残差块无论是在神经网络的中间还是末尾都不会影响神经网络,因为残差块学习恒等函数很容易,恒等函数保证了维度相同,上一个的输出等于下一个输入」
  • ResNets网络常用的结构是:卷积层-卷积层-卷积层-池化层-卷积层-卷积层-卷积 层-池化层……依此重复。直到最后,有一个通过 softmax 进行预测的全连接层。

  • 参见吴恩达深度学习[2]

「欢迎批评指正,一起学习进步!!!」

0afd971c7ad04579f17040cd9f5cdf86.png

Reference

[1]

Resnet到底在解决一个什么问题: https://www.zhihu.com/question/64494691

[2]

吴恩达深度学习: https://www.coursera.org/learn/convolutional-neural-networks?specialization=deep-learning#syllabus

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
卷积神经网络(CNN)和深度残差卷积神经网络都是深度学习中的重要概念,它们在图像处理和模式识别等领域有着广泛的应用。下面将详细介绍这两种网络的**定义、结构、特点以及应用场景等**,并探讨它们之间的联系和区别。 ### 卷积神经网络(CNN) 1. **定义**:卷积神经网络是一种专门用于处理网格状数据的深度学习算法,尤其擅长处理图像和视频数据。 2. **结构**:CNN由卷积层、池化层和全连接层组成。卷积层负责提取图像中的局部特征,池化层负责降低特征的维度并增加模型的不变性,全连接层则将前面学到的特征表示用于分类或回归任务。 3. **特点**:CNN具有平移不变性,即能够对输入图像的平移变化保持不变的识别能力。这种特性使得CNN在图像识别、目标检测和图像分割等任务中表现出色。 4. **应用场景**:CNN广泛应用于计算机视觉领域,如面部识别、自动驾驶车辆的视觉系统、医学图像分析等。 5. **优势**:CNN可以自动学习图像的特征,减少了手工设计特征的复杂性。此外,CNN的层次结构使其能够从低级到高级逐步学习图像的抽象表示。 6. **局限性**:尽管CNN非常强大,但它需要大量的标记数据进行训练,并且对于一些特定的任务,如小样本学习和强化学习,可能不是最优选择。 ### 深度残差卷积神经网络 1. **定义**:深度残差卷积神经网络,简称残差网络(ResNet),是通过引入残差学习概念来解决深度神经网络训练中梯度消失问题的一种新型网络结构。 2. **结构**:ResNet的主要创新是残差块,它通过跳跃连接(skip connection)允许信号直接从一个层传输到另外一些层,从而解决了深层网络训练的难题。 3. **特点**:残差块的设计使得ResNet可以轻易地增加网络深度,从而提高模型的性能。这种结构也减轻了训练过程中的梯度消失问题。 4. **应用场景**:ResNet在各种图像识别和分类任务中都取得了显著的成绩,特别是在ILSVRC 2015中赢得了冠军,展示了其卓越的性能。 5. **优势**:ResNet通过简单的添加层数就能提高准确率,这使得构建更深的网络成为可能,同时也提高了训练过程的稳定性和效率。 6. **局限性**:虽然ResNet在很多方面都很优秀,但它仍然需要大量的计算资源和数据来训练,这可能限制了在某些资源受限环境下的应用。 总之,卷积神经网络深度残差卷积神经网络都是深度学习领域的重要工具,它们各自有着独特的结构和优势。CNN以其强大的图像处理能力被广泛应用于多个领域,而ResNet通过解决深度网络训练的难题,推动了深度学习技术的进一步发展。这两种网络结构的研究和优化,不仅促进了人工智能技术的进步,也为未来的应用开辟了新的可能性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值