googLeNet--Inception四部曲四Inception-ResNet and the Impact of Residual Connections on Learning

原论文:Going deeper with convolutions

作者:Christian Szegedy,Wei Liu,Yangqing Jia,Pierre Sermanet,Scott Reed,Dragomir Anguelov,Dumitru Erhan,Vincent Vanhoucke,Andrew Rabinovich

时间:February 2012

本文的大部分观点来自于这篇论文,并且加入了一些自己的理解。该博客纯属读书笔记。


Pure Inception blocks

基于对TensorFlow系统的使用,使得Inception architecture不需要过多的考虑分布式训练带来的诸多问题,不需要考虑模型的分割。这样我们的模型的结构会更简洁,计算量也更少。

Scaling of the Residuals

文章提到当卷积核的数量超过1000个时,残差学习会变得不稳定,当随着迭代次数增加,参数基本为0,也就是说残差学习最终得到的只是一个恒等映射。而通过缩放残差因子x可以使得训练更加稳定。文章还否定了ResNet的two-phase 训练方法,先使用较低的学习率训练进行预热,然后使用高学习率。但是这种做法在卷积核数量很多的情况下也行不通。所以文章最终只采用缩放残差因子的方法进行训练。
实验结果如图1所示。总体效果差强人意,毕竟残差学习是微软的成果,而且文章只是把效果提升归结于模型规模的提升。
图1

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值