最全技术剖析:百度视觉团队获世界最大规模目标检测竞赛冠军

540 篇文章 14 订阅

眼睛是人类接触外部世界的第一感官,对于机器而言,计算机视觉技术就是它们的“眼睛”。近日,百度视觉团队在全球最大规模目标检测竞赛Google AI Open Images-Object Detection Track中再获佳绩,从全球450多支参赛队伍中脱颖而出,获得世界第一。

Google AI Open Images-Object Detection Track是大规模目标检测任务的权威挑战赛事,由Google AI Research举办,赛事遵循 PASCAL VOC、ImageNet和COCO等赛事传统,但数据规模远大于这些赛事。

在9月8日召开的世界顶级视觉学术会议ECCV2018上,百度视觉团队应邀分享了技术细节,从比赛挑战和解决方案等不同方面做出深度剖析,与全球计算机视觉研究者进一步交流。

Open Images V4数据集

据介绍,大赛采用Google今年5月份发布的Open Images V4数据集作为训练数据集,包含超过170万的图片数据,500个类别以及超过1200万物体框,数据没有完全精细标注,属于弱监督任务,框选类别数目不均衡且有非常广泛的类别分布,这更符合实际情况,也意味着参加竞赛的团队需要考虑到类别的分布,而不能统一对所有类别做处理,因此更具挑战性。这项赛事有助于复杂模型的研究,同时对评估不同检测模型的性能有积极的促进作用。下图为Open Image V4 与 MS COCO 和 ImageNet 检测任务数据对比情况。

Open Image V4 与 MS COCO及ImageNet 检测数据对比情况

与传统的检测数据集合相比,该赛事除了数据规模大、更真实之外,还存在一系列的挑战。具体来说,主要集中在以下三个方面:

数据分布不均衡:最少的类别框选只有14个,而最多的类别框选超过了140w,数据分布严重不均衡。

类别框数量分布

漏标框:很多图片存在只标注主体类别,其他小物体或者非目标物体没有标注出来。

漏标注图片举例

尺度变化大:大部分物体框只占整个图片的0.1以下,而有些框选却占了整个图片区域。如图所示,Open Image V4集合存在更多的小物体,参赛者也会在检测数据中遇到更大的挑战。

框尺度大小分布对比

解决方案

在比赛过程中百度视觉团队采用了不同复杂度、不同骨架网络进行模型的训练,并对这些模型进行融合。从整体方案框架来看,可分为Fast R-CNN和Faster R-CNN两种不同的训练模式。Fast R-CNN版本是百度视觉团队研发的一套PaddlePaddle版本,在此基础上Faster R-CNN加入了 FPN、Deformable、Cascade等最新的检测算法,模型性能实现了大幅度的提升。

整体方案框架流程图

骨架网络为ResNet-101 的Fast R-CNN,模型收敛后可以达到0.481,在测试阶段加入Soft NMS以及 Multi-Scale Testing策略,可以达到0.508。百度也尝试了其他骨架网络(dpn98,Inception-v4,Se-ResNext101),并把不同骨架网络的检测算法融合到一起,最终mAP可以达到0.546。在Proposal采样阶段,百度在不同位置进行不同尺度的候选框生成,然后对这些框选进行分类以及调整他们的位置。

  • Faster R-CNN: 采用这种框架可以达到略高于Fast R-CNN的效果,mAP为0.495。在测试阶段使用Soft NMS以及Multi-Scale Testing策略后,性能达到0.525。
  • Deformable Convolutional Networks使用Soft NMS以及 Multi-Scale Testing策略前后,性能分别达到0.528及0.559。
  • Deformable Cascade R-CNN : 使用Soft NMS以及 Multi-Scale Testing策略前后,性能分别可以达到0.581和0.590.

简言之,在Fast R-CNN框架下,百度视觉团队采用了不同的骨架网络进行训练,而在Faster R-CNN框架下只使用了ResNet101这种骨架网络进行训练。在训练过程中,百度视觉团队还通过不同的策略有效解决了各种技术问题。详情如下:

动态采样

Google Open Images V4 数据集大概有170w图片,1220w框选,500个类别信息。最大的类别框选超过了140w,最小的类别只有14个框选,如果简单使用所有的图片及框选,需要几十天才能进行模型训练,而且很难训练出来一个无偏的模型。因此,需要在训练过程中进行动态采样,如果样本数量多则减少采样概率,而样本数量少则增加采样概率。据介绍,百度视觉团队分别进行全集数据训练、固定框选子集训练、动态采样模型训练三种策略进行。

  • 全集数据训练:按照主办方提供数据进行训练,mAP达到0.50。

  • 固定框选子集训练:线下固定对每个类别最多选择1000个框,mAP达到0.53。

  • 动态采样模型训练:对每个GPU、每个Epoch采用线上动态采样,每次采集的数据都不同,轮数达到一定数目后,整个全集的数据都能参与整体训练。最后mAp达到0.56。

动态采样策略

FPN

基于训练数据集的分析,百度视觉团队发现其中500个类别的尺度有很大的差异。因此他们将FPN引入到检测模型中,即利用多尺度多层次金字塔结构构建特征金字塔网络。在实验中,百度视觉团队以ResNet101作为骨干网络,在不同阶段的最后一层添加了自顶向下的侧连接。自顶向下的过程是向上采样进行的,水平连接是将上采样的结果与自底向上生成的相同大小的feature map合并。融合后,对每个融合结果进行3*3卷积以消除上采样的混叠效应。值得注意的是,FPN应该嵌入到RPN网络中,以生成不同的尺度特征并整合为RPN网络的输入。最终,引入FPN后的mAP可达到0.528。

Deformable Convolution Networks

百度视觉团队采用可变形卷积神经网络增强了CNNs的建模能力。可变形卷积网络的思想是在不需要额外监督的情况下,通过对目标任务的学习,在空间采样点上增加额外的偏移量模块。同时将可变形卷积网络应用于以ResNet101作为骨架网络的Faster R-CNN架构,并在ResNet101的res5a、5b、5c层之后应用可变形卷积层,并将ROI Pooling层改进为可变形位置敏感ROI Pooling层。可变形卷积网络的mAP性能为0.552。

Cascade R-CNN

比赛中,百度视觉团队使用级联的R-CNN来训练检测模型。除训练基本模型外,还使用包含五个尺度特征金字塔网络(FPN)和3个尺度anchors的RPN网络。此外,他们还训练了一个针对全类模型中表现最差的150类的小类模型,并对这150类的模型分别进行评估。得出的结论是,500类模型的MAP为0.477,而用150类单模型训练结果替换500类的后150类的结果,则模型的MAP提升为0.498。使用以上方法进行训练的单尺度模型的性能为0.573。

Testing Tricks

在后处理阶段,百度视觉团队使用了Soft NMS和多尺度测试的方法。用Soft NMS的方法代替NMS后,在不同模型上有0.5-1.3点的改进,而Multi-Scale Testing在不同模型上则有0.6-2个点的提升。

模型融合

对于每个模型,百度视觉团队在NMS后预测边界框。来自不同模型的预测框则使用一个改进版的NMS进行合并,具体如下:

  • 给每个模型一个0~1之间的标量权重,所有的权重总和为1;
  • 从每个模型得到边界框的置信分数乘以它对应的权重;
  • 合并从所有模型得到的预测框并使用NMS,除此之外百度采用不同模型的分数叠加的方式代替只保留最高分模型,在这个步骤中IOU阈值为0.5。

其实,不论是在学术圈还是工业界,大规模目标检测都是计算机视觉极为重要的基础技术。通过这一技术,软硬件应用产品可以深度定位图片中的物体位置以及类别,并用于新零售、通用多物品识别等场景。百度视觉团队从2013年起开始构建超大规模的图像分类系统,其中大部分训练数据均通过互联网搜索引擎获取,目前已构建起包含10万类Tag(标签)、近亿图片的训练系统。相关技术研发成果已成功应用于百度拍照搜索、Feed流、智能相册、百度AR等多项核心产品中,并通过智能云开放广泛应用于零售、视频媒体、金融、医疗、交通运输和营销等众多领域。

视觉是百度大脑的核心能力之一。百度视觉团队在计算机视觉领域曾首创了Pyramidbox、Ubiquitous Reweighting Network、Action Proposal Network、StNet和 Attention Clusters等算法,在识别人、识别物、捕捉关系三个技术领域均具备了业界最领先的技术积累。此外,百度还自主研发了两款智能视觉AI硬件底层模组,包括红外3D结构光模组BoteyeR及视觉智能AI相机模组Xeye,集成了包括人脸识别、物体识别、手势识别等在内的百度视觉技术,可用于新零售、安防、智能家居等场景。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值