论文阅读练习(7)

EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks》(ICML2019)

重新考虑卷积网络的模型尺度

作者:Mingxing Tan   Quoc V. Le(谷歌大脑)

摘要:

卷积网络通常在固定预算资源上开发,如果有更多资源可依赖就可以获得更好的精确度。此篇文章中系统研究了模型尺度并且确认平衡好网络深度、宽度和分辨率可以得到更好的性能。基于这个观察,提出一个新的缩放方法,此方法使用简单高效的复合系数均匀的缩放深度、宽度、分辨率的所有尺寸。证明了这种方法在扩展MobileNets和ResNet方面的有效性。

进一步,使用神经网络结构搜索设计一个新的baseline network,并通过缩放得到一组模型,称为EfficientNets,这些模型比之前的ConvNets得到了更好的精确度和有效性。特殊的,EfficientNet-B7在ImageNet上精确度top-1上达到84.4%,top-5达到97.1%,推断时比最好现存的ConvNet更小(8.4xsmaller)、更快(6.1xfaster)。EfficientNets迁移效果好,在CIFAR-100上精确度为91.7%,Flowers为98.8%,和其他3个迁移数据集,参数量少了一个数量级。

source code:https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet.

问题:

提高卷积网络的性能

方法:

考虑网络模型尺度的影响,提出一个新的缩放方法,此方法使用简单高效的复合系数均匀的缩放深度、宽度、分辨率的所有尺寸。

效果:

EfficientNet-B7在ImageNet上精确度top-1上达到84.4%,top-5达到97.1%;

推断时比最好现存的ConvNet更小(8.4xsmaller)、更快(6.1xfaster);

EfficientNets迁移效果好,在CIFAR-100上精确度为91.7%,Flowers为98.8%,和其他3个迁移数据集,参数量少了一个数量级。

内容:

很好平衡网络的深度、宽度、分辨率可以提高网络性能,并且可以通过一个常数比完成简单缩放实现平衡,基于观察提出简单高效的复合缩放方法。此方法用一组固定的缩放系数统一地缩放网络宽度,深度和分辨率。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值