MobileNetV2 倒置残差和线性瓶颈

参考博客
论文地址

摘要

  在本文中,我们描述了一种新的移动网络结构MobileNetV2,它提高了移动网络在多类型任务和基准以及不同网络尺寸范围的最佳性能。我们还介绍了一种有效地使用轻量级网络进行目标检测的新颖架构SSDLite。并且我们将Deeplabv3进行修剪后构建出一种用于移动语义分割的模型,称为Mobile Deeplabv3。
  MobileNetV2基于倒置残差结构,并且在窄boottleneck层中有快捷连接。中间的扩大层使用轻量级的深度卷积来过滤特征作为非线性的来源。另外,我们发现在窄层中去除非线性来保持表现能力是很重要的,我们证明了这可以提高性能并且直观地启发了我们网络的设计。
  最后,我们的方法允许输入/输出域与转换的表达性分离,这为进一步分析提供了方便的框架。我们测量我们在ImageNet分类,COCO物体检测,VOC图像分割上的表现。我们评估准确性与乘法加法(MAdd)测量的操作次数,实际延迟和参数数量之间的权衡。

1 介绍

  神经网络在机器智能领域有革命性地作用,比如在图像识别任务中超过了人类的识别准确率。然而,提高准确率的同时带来了新的代价:先进的网络需要的高计算能力超越了许多手机和嵌入式应用计算能力。
  本文介绍了一种新的为移动和资源受限环境特殊定制的神经网络结构。我们的网络在保持相同准确率的情况下通过减少计算量和内存需求,推动了移动定制计算机视觉模型的水平。
  我们主要贡献是一种新的层模块:具有线性瓶颈的倒置残差。这个模块采用了一种低维的压缩表示作为输入,首先扩展成高维然后使用轻量级深度卷积过滤。随后使用线性卷积将特征投影回低维表示。官方实现TensorFlow-Slim提供一部分操作。
  该模块可以在任何现代框架中使用标准操作有效地实现,并允许我们的模型使用标准基准测试在多个性能点上击败最新技术。此外,这种卷积模块特别适用于移动设计,因为它可以通过永远不会完全实现大型中间张量来显着减少推理期间所需的内存占用。这减少了许多嵌入式硬件设计中对主存储器访问的需求,这些设计提供了少量非常快速的软件控制的高速缓冲存储器。

2 相关工作

  在最近几年,调整深度神经网络的架构以在准确率和性能之间有一个最佳平衡成为一个积极研究的领域。早期的网络如AlexNet,VGGNet,GoogLeNet以及ResNet,这些网络的设计都进行了大量的手工体系结构搜索和训练算法改进。最近在网络架构探索上有了很多进展,比如超参数还有各种网络修剪方法以及连通性学习。大量的工作也致力于内部卷积模块的连接架构的改变,比如ShuffleNet[20]或引入了稀疏性[21]和其它[22]。
  最近,[23, 24, 25, 26]引入了架构探索的新

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值