卷积神经网络框架四:Res网络--v1:Deep Residual Learning for Image Recognition

本文探讨了深度学习中ResNet残差网络的设计原理,解释了为何通过添加恒等映射可以解决深度网络的退化问题。在ILSVRC比赛中,ResNet表现优异,解决了训练误差随层数增加而上升的问题。ResNet利用残差块和瓶颈架构,减少了参数量,提高了训练速度和系统性能。实验结果显示,ResNet在多种数据集上的精度超越了其他网络模型。
摘要由CSDN通过智能技术生成

Deep Residual Learning for Image Recognition

简述:
当前,在众多网络模型中都存在一个共同的问题,是否层数越多系统性能越好?首先想到的问题就是爆炸问题和消失问题(vanishing/exploding gradients),从开始就阻碍了收敛,然而,标准化初始化和中间标准化层可以解决这个问题,随着深度的增加,准确度逐渐饱和,然后迅速下降(degradation problem退化问题)。本文提出的res网络很容易优化,相对的“普通”网(简单的叠加层)在深度增加时表现出更高的训练误差。同时,res网络残差神经网络在2015年ILSVRC比赛中获得冠军,且多个方面获得了第一名。

模型:
1.Residual block(残差块):通过增加一个idenetity mapping(恒等映射),将原始所需要学的函数H(X)转换为F(X)+X,即H(x)=F(x)+x,两者所表达效果相同,但优化难度并不相同,作者假设F(x)的优化会比H(x)简单的多。这一想法也是源于图像处理中的残差向量编码,通过一个reformulation,将一个问题分解成多个尺度直接的残差问题,能够很好的起到优化训练的效果。
这个Residual block通过shortcut connection实现,通过shortcut将这个block的输入和输出进行一个element-wise的加叠,这个简单的加法并不会给网络增加额外的参数和计算量,同时却可以大大增加模型的训练速度、提高训练效果并且当模型的层数加深时,

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值