GoogLeNet论文学习笔记
Abstract
- 提出一种叫做inception的卷积神经网络结构,基于inception构建的22层的深度网络(GoogLeNet)刷新了ILSVRC14分类和检测任务的state of art。
- 这种结构的主要特点就是加大了网络的深度和宽度,并且不增加运算量,提高了计算资源的利用效率。
- 为了优化效果,inception结构的设计基于海扁准则和多尺度处理问题的直觉。
Introduction
- 过去三年由于深度学习(更确切地说是卷积网络)的优势,图像识别和物体检测取取得了引人注目的进步。这些进步不只是因为有性能更强的硬件,更大的数据集和更大的模型,而主要是一系列的新ideas,算法和改进的网络结构。
- 我们提交到ILSVRC 2014的GoogLeNet使用了比两年前的冠军AlexNet少12倍的参数,但取得了更高的正确率。
- 随着移动和嵌入式计算的不断发展,算法效率(特别是效果和内存占用)变得非常重要。
- 我们的模型被设计为在预测时的计算量保持在1.5 billion次乘加运算,因此可以被运用于实际生产中,而不单纯是学术上的实验。
Related Work
从LeNet-5开始,CNN就已经有了一个标准的结构—堆叠卷积层(可选择性地后面接一些normalization和max-pooling层),后面接一个或多个全连接层。各种基于此的变种模型在MNIST、CIFAR和ImageNet分类竞赛任务上都取得了迄今为止最好的结果。对于像Imagene