- MobileNet的出现动机
- 神经网络的两个发展方向
- 现有的缩减模型的方法
- MobileNet论文使用的方法
- 应用领域
- 最终成果
- MobileNet结构
- 标准卷积块和深度可分离卷积块的对比
- 深度可分离卷积
- MobileNet超参数
- MobileNet v2创新点
- MobileNet v3创新点
MobileNet的出现动机
① 为了追求更高的准确率,自AlexNet依赖,神经网络更加倾向于更深,更复杂的设计机构,这就导致对GPU的需求提高,但往往现实生活中很难达到。
② 在实际生活中,识别任务更需要是在有限的计算环境下实时计算。因为基本都是在移动端进行的。例如:自动驾驶,机器人视觉,增强现实。
神经网络的两个发展方向
- 轻量化
SqueezeNet
MobileNet
shuffleNet
Xception - 网络深度
AlexNet
VGGNet
GoogleNet
ResNet
DenseNet
SENet
现有的缩减模型的方法
① 模型压缩:在已经训练好的模型上进行压缩,使得网络携带更少的网络参数
② 直接训练一个小型网络:从改变网络结构出发,设计出更高效地网络计算方式,从而使得网络参数减少的同时,不损失网络的性能。
MobileNet论文使用的方法
- 提出了一类新型网络架构,根据应用需求与资源限制(延迟,大小),构建相匹配的小型网络
- MobileNets主要致力于优化延迟,但也可以产生小型网络
- MobileNets主要基于深度可分离卷积构成,通过设计两个超参数,实现准确率和延时性之间的平衡
应用领域
- 目标检测
- 人脸属性识别
- 细粒度分类
- 大规模的地理定位
最终成果
在ImageNet数据集上,与VGG16相比,通过降低0.9%的准确率,却使得参数量整整减少了三十倍。
若是在更小的MobileNet结构下,与AlexNet相比,准确率不仅提升,参数量还减少了