目录
-
论文解读
-
代码解析
-
小结
论文解读
在介绍inception V2时提到过,inception V3的论文依据是Rethinking the Inception Architecture for Computer Vision 虽然此文中介绍的网络结构叫做inception V2,但是在代码的实现中却是叫做inception V3。可能google在实现代码的时候觉得可以把加了BN的网络称为inception V2,那这篇论文的实现就更名为inception V3了。
1.前言
近几年分类网络精确度的提升对其他相关的机器视觉应用有很大的帮助,比如人脸识别,物体检测之类,因为他们都可以用分类网络来提取特征。Inception网络相对AlexNet和VGG来说不仅精确度有了提升,而且参数量大大减少,所以inception网络可以应用在有大量数据的场景,因为在大量数据的场景我们需要合理分配有限的计算和存储资源。但是现在inception网络的结构比较难以修改,如果我们需要放大网络,可能网络中部分信息是失效的,这样很难适应新的场景。因此本文主要是介绍一些通用的规则和一些优化的思想,让我们能够比较灵活的修改网络来适应不同的场景。
2.基本设计原理
- 避免在网络的前面使用像bottleneck的结构。就是说size需要缓慢的降低,不能一开始降低的太快,这样会丢失很多信息。
- 对高维度的表达进行局部处理,会加快网络的训练速度。
- 在较低维度的输入上进行空间聚合,将不会造成任何表达能力上的损失,因为feature map上