EfficientNet的细节理解及解读

EfficientNet通过复合系数统一缩放网络深度、宽度和分辨率,实现了模型性能与效率的提升。相比传统CNN缩放方法,EfficientNet平衡网络结构,避免繁琐的手动调参,并在保持精度的同时减少资源消耗。论文中提出的EfficientNet-B0作为基础模型,通过搜索确定α, β, γ值,然后用不同的ϕ值放大得到EfficientNet-B1到B7。" 93601057,7662313,"Django快捷函数:render, redirect, get_object_or_404解析
摘要由CSDN通过智能技术生成

Efficientnet网络学习

源码
论文
第三方PyTorch代码

一、总览

卷积神经网络通常都是先在固定资源预算下开发设计,然后如果资源有多余的话再将模型结构放大以便获得更好的精度。在本篇论文中,我们系统地研究了模型缩放并且仔细验证了网络深度、宽度和分辨率之间的平衡可以导致更好的性能表现。基于这样的观察,我们提出了一种新的缩放方法——使用一个简单高效的复合系数来完成对深度/宽度/分辨率所有维度的统一缩放。我们在MobileNets和ResNet上展示了这种缩放方法的高效性。

二、细节

细节1.为什么会想到EfficientNet?

放大CNN的过程从来没有很好的理解过,目前通用的几种方法是放大CNN的深度、宽度和分辨率,在之前都是单独放大这三个维度中的一个,尽管任意放大两个或者三个维度也是可能的,但是任意缩放需要繁琐的人工调参同时可能产生的是一个次优的精度和效率。
在这篇论文里作者重点思考和审视了这问题:**是否存在一个原则性的放大CNN的方法实现更好的精度和效率?**最后他们的实验研究表明了平衡深度、宽度和分辨率这三个维度是至关重要的,令人惊讶的是这样的平衡可以通过简单的使用一组常量比率来缩放每一个维度,基于这个观察,<

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值