重磅!商汤&港中文等将开源ECCV2018MS COCO检测比赛冠军代码库

商汤科技、港中文、浙大、悉尼大学、南洋理工大学的MMDet团队在ECCV2018 MS COCO检测比赛中夺冠,并计划开源他们的代码库。团队采用了混合级联架构、特征引导anchoring机制和FishNet骨干网,实现显著性能提升。9月底,他们将在Github上发布该代码库。
摘要由CSDN通过智能技术生成

重磅!商汤&港中文等将开源ECCV2018MS COCO检测比赛冠军代码库

原文出处: 我爱计算机视觉


来自商汤科技、港中文、浙大、悉尼大学、南洋理工大学的研究人员组成的团队MMDet,赢得了ECCV2018 MS COCO检测比赛的冠军。近日,他们将开源在比赛中使用的代码和模型库。

MMDet团队成员:

ECCV2018MS COCO检测比赛结果:

在这个比赛中MMDet团队开发了新的深度学习检测框架,从三个方面区别于以往的框架:一种新的混合级联架构,一种更智能的anchoring机制,一种新的骨干网络FishNet。
(1)使用混合级联架构组织整个流程,不同任务的分支(包括比如包围框回归、掩模预测、语义分割)用交替的方式被组织起来。这种新的架构改进了信息流,以至于不同模块的信息可以更有效的交换。

(2)开发了一种特征引导的anchoring机制,替代传统的密集均匀的anchors。这种机制可以预测任意形状的稀疏anchors,其大幅改进了RPN的性能。(AR上升了大约10%!)

(3)加入了一种新的骨干网(FishNet)到集成模型中,它可以保持并改进不同深度的相同分辨率的特征。

在实验中,使用COCO train2017的标注(bbox, mask,stuff)使用不同的骨干网(分别是SE-ResNeXt-154 (64*4d), ResNeXt-101 (64*4d), ResNeXt-101 (32*8d), DPN-107, and FishNet)训练了5个模型。这些网络预测的结果最后被结合起来,在test-dev上的性能结果是:

(1)单模型(单尺度测试)45.3 mask AP,

(2)单模型(包括图像flip的多尺度测试):47.4 mask AP,

(3)5个模型集成:49.0 mask AP。

目前该工程正在代码整理中,作者称将于9月底正式发布,敬请期待!


Github地址:
https://github.com/open-mmlab/mmdetection

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值