Kaggle—So Easy!百行代码实现排名Top 5%的图像分类比赛

转载 2018年01月09日 00:00:00
北京 上海巡回站 | NVIDIA DLI深度学习培训2018年1月26/1月12日

0?wx_fmt=png

NVIDIA 深度学习学院 带你快速进入火热的DL领域
阅读全文                                                                                                          >



正文共4931个字,11张图,预计阅读时间30分钟。


前言


 根据我个人的经验,学好AI,有五个必修:数学、数据结构、Python数据分析、ML、DL,必修之外,有五个选修可供选择:NLP、CV、DM、量化、Spark,然后配套七月在线的这些必修和选修课程刷leetcode、kaggle,最后做做相关开源实验。


今天,咱们就来看一看:如何用百行代码实现Kaggle排名Top 5%的图像分类比赛。


1、NCFM图像分类任务简介


为了保护和监控海洋环境及生态平衡,大自然保护协会(The Nature Conservancy)邀请Kaggle[1]社区的参赛者们开发能够出机器学习算法,自动分类和识别远洋捕捞船上的摄像头拍摄到的图片中鱼类的品种,例如不同种类的吞拿鱼和鲨鱼。大自然保护协会一共提供了3777张标注的图片作为训练集,这些图片被分为了8类,其中7类是不同种类的海鱼,剩余1类则是不含有鱼的图片,每张图片只属于8类中的某一类别。


 图1给出了数据集中的几张图片样例,可以看到,有些图片中待识别的海鱼所占整张图片的一小部分,这就给识别带来了很大的挑战性。此外,为了衡量算法的有效性,还提供了额外的1000张图片作为测试集,参赛者们需要设计出一种图像识别的算法,尽可能地识别出这1000张测试图片属于8类中的哪一类别。Kaggle平台为每一个竞赛都提供了一个榜单(Leaderboard),识别的准确率越高的竞赛者在榜单上的排名越靠前。


0?wx_fmt=jpeg

图1. NCFM图像分类比赛


2、问题分析与求解思路


2.1、卷积神经网络


从问题的描述我们可以发现,NCFM竞赛是一个典型的单标签图像分类问题,给定一张图片,系统需要预测出图像属于预先定义类别中的哪一类。在计算机视觉领域,目前解决这类问题的核心技术框架是深度学习(Deep Learning),特别地,针对图像类型的数据,深度学习中的卷积神经网络(Convolutional Neural Networks, ConvNets)架构(关于卷积神经网络的介绍和算法,这里有个视频教程可以看下:CNN之卷积计算层,本博客也写过:CNN笔记


总的来说,卷积神经网络是一种特殊的神经网络结构,即通过卷积操作可以实现对图像特征的自动学习,选取那些有用的视觉特征以最大化图像分类的准确率。


0?wx_fmt=png

图2. 卷积神经网络架构


图2给出了一个简单的猫狗识别的卷积神经网络结构,在最底下(同时也是最大的)的点块表示的是网络的输入层(Input Layer),通常这一层作用是读入图像作为网络的数据输入。在最上面的点块是网络的输出层(Output Layer),其作用是预测并输出读入图像的类别,在这里由于只需要区分猫和狗,因此输出层只有2个神经计算单元。而位于输入和输出层的,都称之为隐含层(Hidden Layer),图中有3个隐含层,正如前文提到的,图像分类的隐含层都是由卷积操作完成的,因此这样的隐含层也成为卷积层(Convolutional Layer)。


因此,输入层、卷积层、输出层的结构及其对应的参数就构成了一个典型的卷积神经网络。当然,我们在实际中使用的卷积神经网络要比这个示例的结构更加复杂,自2012年的ImageNet比赛起,几乎每一年都会有新的网络结构诞生,已经被大家认可的常见网络有AlexNet[5], VGG-Net[6], GoogLeNet[7], Inception V2-V4[8, 9], ResNet[10]等等。


2.2、一种有效的网络训练技巧—微调


我们没有必要从头开始一个一个的参数去试验来构造一个深度网络,因为已经有很多公开发表的论文已经帮我们做了这些验证,我们只需要站在前人的肩膀上,去选择一个合适的网络结构就好了。且选择已经公认的网络结构另一个重要的原因是,这些网络几乎都提供了在大规模数据集ImageNet[11]上预先训练好的参数权重(Pre-trained Weights)。这一点非常重要!因为我们只有数千张训练样本,深度网络的参数非常多,这就意味着训练图片的数量要远远小于参数搜索的空间,因此,如果只是随机初始化深度网络然后用这数千张图片进行训练,非常容易产生过拟合Overfitting)的现象。


所谓过拟合,就是深度网络只看过了少量的样本,因而“坐井观天”,导致只能识别这小部分的图片,丧失了“泛化”(Generalization)能力,不能够识别其它没见过、但是也是相似的图片。为了解决这样的问题,我们一般都会使用那些已经在数百万甚至上千万上训练好的网络参数作为初始化参数,可以想象这样一组参数的网络已经“看过”了大量的图片,因此泛化能力大大提高了,提取出来的视觉特征也更加的鲁棒和有效。


接下来我们就可以使用已经标注的三千多张海鱼图片接着进行训练,注意为了防止错过了最优解,此时的训练节奏(其实应该称为“学习速率”)应该比较缓慢,因此这样的训练策略我们称为“微调技术”(Fine-tune)。


当我们使用自己的标注数据微调某个预先训练的网络时候,有一些经验值得借鉴。以总图3为例,假设我们的网络结构是类似AlexNet这样的7层结构,其中前5层是卷积层,后2层是全连接层。


0?wx_fmt=png    

(1) 


(1)我们首先微调最后一层Softmax分类器,假设原来的网络是用来分类1000类物体的(例如ImageNet的目标),而现在我们的数据只有10个类别标签,因此我们最后一层输出层(FC8)的神经元个数变为10。我们使用很小的学习率来学习层FC7与FC8之间的权重矩阵而固定这之前所有层的权重;


0?wx_fmt=png

(2)


(2)一旦网络趋于收敛,我们进一步扩大微调的范围,这时微调两个全连接层,即FC6与FC7,以及FC7与FC8之间的权重,与此同时固定FC6之前的所有卷积层权重不变;


0?wx_fmt=png    


(3)


(3)我们将微调的范围扩大至倒数第一个卷积层C5;


0?wx_fmt=png

(4)


(4)我们将微调的范围扩大至更多的卷积层。不过事实上,我们会认为位置相对靠前的卷积层提取出来的特征更加的底层和具有通用性,而位置相对靠后的卷积层以及全连接层更加与数据集的相关性大一些,因此有时候我们并不会微调前几个卷积层。


3、算法实现和分析



在NCFM这个比赛的论坛里已经有开源的实现供大家参考(https://www.kaggle.com/c/the-nature-conservancy-fisheries-monitoring/discussion/26202),


在这里分析一下模型训练文件train.py的逻辑结构。


  • ü Import相关的模块以及参数的设置——图4;

  • ü 构建Inception_V3深度卷及网络,使用在ImageNet大规模图片数据集上已经训练好的参数作为初始化,定义回调函数保存训练中在验证集合上最好的模型——图5;

  • ü 使用数据扩增(Data Augmentation)技术加载训练图片,数据扩增技术是控制过拟合现象的一种常见的技巧,其思想很简单,同样是一张图片,如果把它水平翻转一下,或者边角裁剪一下,或者色调再调暗淡或者明亮一些,都不会改变这张图片的类别——图6;

  • ü Inception_V3网络模型训练;


0?wx_fmt=jpeg

图4. Import和参数设置


0?wx_fmt=jpeg

图5. 构建Inception_V3网络并加载预训练参数


0?wx_fmt=jpeg

图6. 使用数据扩增技术加载训练和验证图片集


0?wx_fmt=jpeg

图7. 模型训练


4、提升排名的若干技巧


一旦我们训练好了模型,我们就用这个模型预测那些测试图片的类别了,论坛中predict.py中的代码就是预测鱼类的并且生成提交文件。这里我们给大家分享一下在机器学习和图像识别类竞赛中常见的两个技巧,简单而有效。它们的思想都是基于平均和投票思想。其背后的原理用一句话总结就是:群众的眼睛是雪亮的!


技巧1:同一个模型,平均多个测试样例

这个技巧指的是,当我们训练好某个模型后,对于某张测试图片,我们可以使用类似数据扩增的技巧生成与改张图片相类似的多张图片,并把这些图片送进我们训练好的网络中去预测,我们取那些投票数最高的类别为最终的结果。Github仓库中的predict_average_augmentation.py实现的就是这个想法,其效果也非常明显。


技巧2:交叉验证训练多个模型

还记得我们之前说到要把三千多张图片分为训练集和验证集吗?这种划分其实有很多种。一种常见的划分是打乱图片的顺序,把所有的图片平均分为K份,那么我们就可以有K种<训练集,验证集>的组合,即每次取1份作为验证集,剩余的K-1份作为训练集。因此,我们总共可以训练K个模型,那么对于每张测试图片,我们就可以把它送入K个模型中去预测,最后选投票数最高的类别作为预测的最终结果。我们把这种方式成为“K折交叉验证”(K-Fold Cross-Validation)。图9表示的就是一种5折交叉验证的数据划分方式。


0?wx_fmt=jpeg

图9. 五折交叉验证


当然,技巧1和2也可以联合在一起使用。假设我们做了5折交叉验证,并且对于每一张测试图片都用5次数据扩增,那么不难计算,每一张测试图片的投票数目就是25个。采用这种方式,我们的排名可以更进一步。


5、后记


我们回顾了深度学习中的深度卷积网络的典型结构和特点,并且知道了如何使用梯度下降算法来训练一个深度网络。我们展示了如何用微调技术,使用Inception_V3网络来解决Kaggle的NCFM海鱼分类比,并且通过两个简单而有效的小技巧,使得我们的排名能够进入Top 5%。


  如果读者对该比赛有兴趣,想进一步提升名次,那么一种值得尝试的方法是:物体检测(Object Detection)技术。试想一下,其实我们只要区分海鱼的品种,由于摄像头远近等关系,图片中海鱼的区域其实只占据一小部分像素点,更多的区域都是船体、桅杆或是海洋等噪音。如果有一种算法能够帮我们把海鱼从照片中“扣”(检测)出来,那么可以想象,深度网络的准确率就能够进一步提升了,这部分的工作就留给有兴趣的同学自己做进一步研究了。


  七月在线彭老师、二零一七年五月十日。


参考资料


  1. [1] https://www.kaggle.com/

  2. [2] http://cs231n.github.io/neural-networks-3/

  3. [3] https://github.com/tensorflow/tensorflow

  4. [4] https://github.com/fchollet/keras

  5. [5] Image Classification with Deep Convolutional Neural Networks. NIPS 2012.

  6. [6] Very Deep Convolutional Networks for Large-Scale Image Recognition. ICLR 2015.

  7. [7] Going Deep with Convolutions. CVPR 2015.

  8. [8] Rethinking the Inception Architecture for Computer Vision. CVPR 2016.

  9. [9] Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning. ICLR 2016.

  10. [10] Deep Residual Learning for Image Recognition. CVPR 2016.

  11. [11] http://www.image-net.org/

  12. 七月在线《kaggle案例实战班》

  13. kaggle实战公开课《模型分析与模型融合》

原文链接:http://blog.csdn.net/v_JULY_v/article/details/71598551


查阅更为简洁方便的分类文章以及最新的课程、产品信息,请移步至全新呈现的“LeadAI学院官网”:

www.leadai.org


请关注人工智能LeadAI公众号,查看更多专业文章

?wx_fmt=jpeg

大家都在看

640.png?

LSTM模型在问答系统中的应用

基于TensorFlow的神经网络解决用户流失概览问题

最全常见算法工程师面试题目整理(一)

最全常见算法工程师面试题目整理(二)

TensorFlow从1到2 | 第三章 深度学习革命的开端:卷积神经网络

装饰器 | Python高级编程

今天不如来复习下Python基础


640.png?

Kaggle竞赛优胜者源代码剖析(一)

比赛题目链接:https://www.kaggle.com/c/amazon-employee-access-challenge 优胜者Github:https://github.com/pyduan...
  • qq_25300563
  • qq_25300563
  • 2016年03月26日 19:28
  • 3356

Kaggle 机器学习竞赛冠军及优胜者的源代码汇总

http://dataunion.org/14892.html Kaggle比赛源代码和讨论的收集整理。 Algorithmic Trading Challenge40 Solu...
  • levy_cui
  • levy_cui
  • 2017年06月01日 14:35
  • 1518

拼包函数及网络封包的异常处理(含代码)

文章来自网络,转自http://m.blog.csdn.net/article/details?id=19809345 常见的网络服务器,基本上是7*24小时运转的,对于网游来说,至少要求服务器要能...
  • iamherego
  • iamherego
  • 2016年12月02日 21:15
  • 3022

Kaggle 机器学习竞赛冠军及优胜者的源代码汇总

阅读目录 Algorithmic Trading Challenge25Allstate Purchase Prediction Challenge3Amazon.com – Employee ...
  • qq_26898461
  • qq_26898461
  • 2015年10月20日 11:45
  • 11835

大数据竞赛平台——Kaggle 入门

大数据竞赛平台——Kaggle 入门篇 这篇文章适合那些刚接触Kaggle、想尽快熟悉Kaggle并且独立完成一个竞赛项目的网友,对于已经在Kaggle上参赛过的网友来说,大可不必耗费时间阅读本文。...
  • u012162613
  • u012162613
  • 2014年12月14日 21:34
  • 134365

Kaggle 机器学习竞赛冠军及优胜者的源代码汇总

Kaggle 机器学习竞赛冠军及优胜者的源代码汇总
  • step_forward_ML
  • step_forward_ML
  • 2017年11月01日 11:14
  • 789

利用resnet 做kaggle猫狗大战图像识别,秒上98准确率

1、数据介绍这份数据集来源于Kaggle,数据集有12500只猫和12500只狗。在这里简单介绍下整体思路 1、1从图片中直接训练一个小网络(作为基准方法),也就是普通的cnn方法 2、2后面我会...
  • shizhengxin123
  • shizhengxin123
  • 2017年05月18日 16:30
  • 5306

ImageNet 竞赛 2017 是最后一届,WebVision 竞赛或接棒

转自:http://www.sohu.com/a/143780159_464065 2017 年 7 月 26 日,将标志着一个时代的终结。 那一天,与计算机视觉顶会 CVPR 201...
  • haima1998
  • haima1998
  • 2017年07月28日 20:26
  • 508

Kaggle—So Easy!百行代码实现排名Top 5%的图像分类比赛

Kaggle—So Easy!百行代码实现排名Top 5%的图像分类比赛作者:七月在线彭老师责编:翟惠良 JulyGithub: https://github.com/pengpaiSH/Kaggle...
  • v_JULY_v
  • v_JULY_v
  • 2017年05月10日 22:56
  • 15573

Kaggle正式赛首战top3%分享,小白献给机器学习新手

kaggle首战前3%
  • weixin_39940612
  • weixin_39940612
  • 2017年08月22日 21:39
  • 264
内容举报
返回顶部
收藏助手
不良信息举报
您举报文章:Kaggle—So Easy!百行代码实现排名Top 5%的图像分类比赛
举报原因:
原因补充:

(最多只允许输入30个字)