经典卷积神经网络之InceptionNet-V3

本文介绍了ResNet(Residual Neural Network),一种达到152层深度的神经网络,解决了深度学习中梯度消失的问题。通过引入残差学习单元,ResNet允许原始输入直接传递,优化了学习目标,提高了网络性能。文章详细阐述了Highway Network对ResNet的影响,以及ResNet的残差学习单元结构。下一部分将讨论如何用TensorFlow实现ResNet。
摘要由CSDN通过智能技术生成

ResNet (Residual Neural Network)由微软研究院的何情明等4名华人提出,它的深度达到了惊人的 152 层,而且以 top-5 错误率3.57%的好成绩在ILSVRC 2015比赛中获得了冠军。尽管ResNet的深度远远高于VGGNet,但是参数量却比VGGNet 低,效果相较之下更为突出。ResNet中最具创新的一点就是残差学习单元(ResidualUnit)的引入,而 Residual Unit 的设计则参考了瑞士教授 Schmidhuber在其 2015 年发表的论文《Training VeryDeep Networks》中提出的 Highway Network。在介绍 Residual Unit 前,我们先来看一下所谓的 Highway Network。在介绍 Residual Unit 前,我们先来看一下上述所说的 Highway Network。我们通常认为增加网络的深度可以在一定程度上提高网络的性能,但是这同时也会增加网络的训练难度。Highway Network 的出现就是为了解决较深的神经网络难以训练的问题。假设某一层的网络输出 y 与输入 x 的关系可以用 y=H(x,WH)来表示,这是经过了非线性变换之后得到的结果。Highway NetWork 在此基础上允许保留一定比例的原始输入 x ,即
在这里插入图片描述

上式中, T 被称为变换系数, C则是保留系数,论文中的取值是 C = l- T 。这样操作的结果是:有一定比例的前一层的信息没有经过矩阵乘法和非线性变换而是直接传输到下一层。得益于门控制单元的限制,增加Highway Network 的深度至上百层甚至上千层也能直接使用梯度下降算法进行训练。Hi

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值