ResNet随堂笔记

本文通过对比34层与18层ResNet的表现,发现更深层的ResNet能有效解决退化问题,提高准确率。在训练集和验证集上,34层ResNet的错误率更低,证明了残差学习在极深网络中的优越性,降低了3.5%的top-1错误率。
摘要由CSDN通过智能技术生成

目的:使用残差网络来简化更深的网络的训练。
成就: ILSVRC 检测和定位第一名;COCO 2015检测和分割第一名 
退化(训练的准确率下降): 随着网络深度的增加,准确率达到饱和(不足为奇)然后迅速退化。这种退化 并不是由过拟合造成的 ,并且在一个合理的深度模型中增加更多的层却导致了 更高的错误率 ,理论上一个更深的模型应该比相同配置下的更浅的模型具体更高的精度
本文提出了一种深度残差学习框架来解决退化问题,本文表明了: 1) 这个极深的残差网络是很容易优化的,但是对应的普通的“plain”网络(仅是堆叠了层)在深度增加时却出现了更高的错误率。 2) 我们的深度残差网络能够轻易的由增加层来提高准确率,并且结果也大大优于以前的网络。
这个极深的模型在其他识别任务上同样也具有非常好的泛化性能,这让我们在ILSVRC & COCO 2015 竞赛的ImageNet检测、ImageNet定位、COCO检测以及COCO分割上均获得了第一名的成绩。这强有力的证明了残差学习法则的通用性,因此我们将把它应用到其他视觉甚至非视觉问题上。

如果恒等映射是最优的,那么求解器驱使多个非线性层的权重趋向于零来逼近恒等映射。
在每一个卷积层之后,激活层之前均使用batch normalization(BN)。使用的mini-batch的尺寸为256。学习率从0.1开始,每当错误率平稳时将学习率除以10,整个模型进行
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值