官宣:OpenMMLab 重磅升级—百花齐放春满园

前段时间CV君跟大家分享了 港中文-商汤OpenMMLab开源全景图!,今天官方解读来了~

本文转载自知乎,已获作者授权转载。

链接:https://zhuanlan.zhihu.com/p/160966882

7 月 10 号 OpenMMLab 在 WAIC 2020 世界人工智能大会上发布了重磅升级,给大家带来了更丰富的 OpenMMLab 大礼包,1 个架构,10+ 个研究方向,100+ 种算法,600+ 预训练模型,是深度学习时代最完整的计算机视觉算法开源体系。

  

总体介绍

从2018年年中开始,MMLab 和商汤科技就联合启动了 OpenMMLab 计划,为计算机视觉的不同方向建立统一而开放的代码库。这两年内,我们陆续开源了多个算法框架,包括:

  • MMDetection(物体检测):在一个统一而灵活的架构上,高效实现了20多种典型检测算法。

  • MMAction(行为理解):支持视频行为理解中的动作识别、时序检测、和时空检测等多种基本任务,复现了多种流行的算法,并支持常见的各种数据集。

  • MMSkeleton(基于人体骨骼的理解):以人体骨骼为核心的视频理解框架,基于时空图模型(ST-GCN)支持行为理解、姿态估计、动作生成等任务。

  • MMSR(图像与视频超分辨率):在统一的架构上,实现了一系列先进的超分辨率算法。

  • MMFashion(时尚分析):专注于时尚服饰领域的视觉分析,覆盖识别、检索、属性预测、检测、分割、推荐等主流任务。

这些框架为学术社区提供了丰富而高质量的算法实现,开创了 OpenMMLab 的生态。


经过小伙伴们的加班加点,我们这个月初开源了 MMSegmentation、MMDetection3D、MMEditing、MMAction2、MMClassification、和 MMPose 这6个新的算法框架,并对 MMCV和 MMDetection 进行了全面更新。上述的这些框架都是基于 MMCV 的统一架构支持。它们在算法规模、训练效率和模型精度上都达到了开源社区的优秀水平,并且具有以下特性:

  • 完善的文档和入门教程,丰富的代码注释,不再对着代码一头雾水

  • 规范的开发流程,严谨的代码审核和单元测试,不再忍受 bug 缠身之痛

  • 分布式训练框架,高效算子和逻辑实现,不再为跑不满的GPU干着急

有道是自从 star 了 OpenMMLab,一不愁算法复现挠秃头,二不愁从头造轮子几春秋,三不愁新方向框架难上手。

框架特点

  • MMCV(基础支持)

更完善的训练流程支持,文件读取多后端支持,图片处理多后端支持,更丰富的 CNN 模块,20 种常用算子的高效 CUDA 实现。
  • MMDetection(目标检测)

支持算法多达 40 个,300+ 预训练模型,速度和精度相比 1.0 版本有很大提升。通过更细粒度的模块化设计,MMDetection 的任务拓展性大大增强,成为了检测相关项目的基础平台。
  • MMSegmentation(语义分割)

在统一的设定下,对 10+ 种语义分割算法的进行了统一 benchmark,并且达到了更高的精度。开源了 200+ 预训练模型和丰富的配置,方便进行横向纵向比较。支持丰富的训练和测试 trick,可以应对多样的使用场景。支持混合精度训练,节省显存 40%以上。
  • MMDetection3D(3D目标检测)

MMDetection 的 3D 扩展,训练速度领先其他3D点云检测代码库。任务拓展性强,可作为3D检测相关任务的基础平台,支持单模态和多模态 3D 检测,同时支持室内和室外场景数据集SOTA。无缝使用 MMDetection 中的全部已有算法和模型,尽享丝滑用户体验。
  • MMEditing(图像和视频编辑)

设计了统一的框架同时支持超分、修复、抠图、生成四大方向,方便用户在一个框架中调用不同的算法和模型。提供了丰富的底层视觉算法的高效算子,拥有高效的训练和测试速度,复现了多个未开源算法,并首次公开实现了基于 PyTorch 的 GAN 的分布式训练。
  • MMAction2(动作识别)

支持 8 种模型和 8 个数据集,提供完善的数据处理脚本,支持多种解码器进行高效的在线视频解码,训练速度快,模型精度高。更细粒度的模块化设计,易于拓展。
  • MMClassification(图像分类)

丰富的训练配置,支持常见网络的复现,并提供相应的预训练模型。
  • MMPose(人体关键点检测)

首个同时支持 top-down 和 bottom-up 类型算法的开源人体姿态估计框架,并实现了目前学术界的最高训练精度和最快训练速度。基于模块化的设计,易于拓展和修改。后续将支持多人3D姿态估计、密集人群的姿态估计、人脸关键点等更多模块。

  

我们将在后续文章里对这些葫芦娃进行详细的介绍,敬请(快)期(关)待(注)!

除了上述项目外,OpenMMLab 也加入了一些创新型项目,例如 OpenSelfSup,OpenPCDet,OpenUnReID 等等。这些项目选择了不同的架构方式,也是对 AI 社区非常有价值的贡献。它们和 MM 系列框架一起,共同构成了繁荣的 OpenMMLab 社区,给大家更多选择。

  • OpenSelfSup(自监督学习)

以统一的框架支持基于分类、聚类、memory bank、contrastive learning 的多种自监督学习算法,支持最前沿的 SimCLR, MoCo, BYOL 等算法,在多个 benchmark 上支持标准化的评测方案。
  • OpenPCDet(点云 3D 目标检测)

清晰简洁的代码框架设计,基于统一规范化的 3D 坐标系,方便地支持各种数据集,代码采用模块化设计,集成各种 3D 检测模型,包含 PV-RCNN 等多个排行榜 top 排名的高性能3D检测方法。
  • OpenUnReID(无监督目标重识别)

第一个针对无监督及领域自适应的目标重识别框架,同时支持基于伪标签和域转换的算法,速度和精度相对其他框架均更优,且具有较强的可拓展性

OpenMMLab 代码架构简介

在 MM 系列项目的整体架构中,我们突出两个特点:模块化和简洁化。模块化让用户可以更灵活地进行排列组合,以及开发新的方法和模块;简洁化让用户不用过多关注和核心逻辑无关的事情,将辅助功能交由框架自行处理。

我们通过 Registry、Config和 Builder 实现模块化的基础支持,然后在模块层面将数据、模型等进行拆解和抽象,进行模块化的实现,在最顶层通过 Runner 来实现流程的简洁化。

  

注册器和构建器

注册器提供了在不修改核心代码的前提下进行模块拓展的能力。通过管理字符串到类的映射,可以实现从配置文件直接构建模块。在 OpenMMLab 的项目中,不论是模型结构,数据预处理组件,还是优化器,甚至顶层的训练流程,都是通过这种方式来构建的,给用户提供了极大的拓展空间。

  

基于注册器和构建器,我们可以轻松地进行模块拓展,而不需要在原有框架代码中进行改动,这也是我们推荐的基于 OpenMMLab 中的框架进行算法开发的流程。事实上,整个 MMDetection3D 框架就是 MMDetection 的一个拓展,并没有 fork 并修改 MMDetection 的代码,就可以直接通过注册更多模块来实现相应的功能。

数据

我们将数据解耦成两个主要模块,即数据集定义(Dataset)和预处理流水线(DataPipeline)。Dataset 只负责数据集本身的定义和解析,生成统一的内部格式,DataPipeline 负责数据的预处理流程,每个环节的输入输出都是字典。这样同一个数据集可以轻松配置不同的预处理,不同的数据集也可以共享同一套预处理流程,大大提升了灵活性和代码复用性。

  

模型

OpenMMLab 没有对模型的抽象和模块化做统一的规定,需要相应的开发者对具体研究领域有比较深的理解。例如在检测框架中,我们使用了 Backbone,Neck,Head 的粗粒度结构,再加上 Assigner,Sampler,Loss 等细粒度结构,而在分割框架中,我们则使用了 Backbone,DecodeHead,AuxiliaryHead的抽象。

优化器

在大部分项目中,大家直接针对所有模型参数构造一个优化器即可。但是在部分模型的训练中,对于优化器有一些特殊需求,比如对于不同的参数使用不同的learning rate 和 weight decay,或者使用多个优化器,每个优化器负责模型的一部分,例如生成对抗网络的训练。为了满足各种自定义的需求,我们设计了 OptimizerConstructor 来负责优化器的构造,可以通过简单的选项任意指定不同参数的学习率等参数。利用这个机制,我们便可以通过配置文件灵活地实现各种不同的优化器。

训练流程

在数据、模型、优化器之上,我们抽象了一套标准的训练流程,由 Runner 进行控制。Runner 分为两个主要部分:循环框架和钩子(hook)。

Runner 的主体部分是一个循环框架,进行一轮轮的模型迭代,包括取出一个 data batch,调用模型的 train_step 函数进行用户定义的 forward,循环往复。hook 是可调用的函数或类,用户可以将各种 hook 注册到 runner 里面,runner 在循环的不同位置例如 iteration 开始前和结束后,epoch 开始前和结束后等等设定了一些触发点,每当循环进行到这些触发点,就会执行用户注册进来的 hook,从而实现训练流程的自定义。

通过这样的机制,我们将一些辅助操作比如训练日志的记录、学习率的调整、模型的保存等等从训练流程的主体框架中剥离出来,通过 hook 的配置来完成。由于 MMCV 中提供了丰富的内置 hook,用户通常只需要通过配置文件做简单的配置即可。

近期展望

这次的发布对于 OpenMMLab 来说只是一个新的起点,还有很多坑等着我们来填,很多立下的 flag 需要我们去完成。

对于算法框架,我们将持续推动框架迭代,增强不同框架间的互联互通,同时打造上下游支持工具集。

对于社区,我们将进行规范化运营。OpenMMLab 的核心在于 Open,希望能有更多的研究者和开发者能与我们一起合作,同时也希望从社区吸纳更多优秀的新框架加入 OpenMMLab,让生态更加繁荣。

链接:https://OpenMMLab.org/ 

END

备注:综合

52CV综合交流群

姿态估计,2D、3D目标检测等最新CV技术前沿,若已为CV君其他账号好友请直接私信。

我爱计算机视觉

微信号:aicvml

QQ群:805388940

微博知乎:@我爱计算机视觉

投稿:amos@52cv.net

网站:www.52cv.net

在看,让更多人看到  

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值