点击下方卡片,关注“CVer”公众号
AI/CV重磅干货,第一时间送达
对于被遮挡的物体,人类能够根据时序上下文来识别,定位和追踪被遮挡的物体,甚至能脑补出物体被遮住的部分,那么现有的深度学习方法对遮挡场景的处理能力如何呢?尽管近年来深度学习方法已经在各个视觉领域取得了突破性进展,但在严重遮挡的视频场景中感知、定位对象仍然是一项非常具有挑战性的任务,针对遮挡场景设计新的视频理解范式的需求迫在眉睫。
针对这个极具挑战的视觉理解问题,我们在顶级会议ICCV 2021上举办了相关的竞赛和研讨会(https://ovis-workshop.github.io/)。本次ICCV 2021 Occluded Video Instance Segmentation (OVIS) Workshop旨在推动遮挡场景下的视觉理解研究,我们基于最新的OVIS数据集主办了OVIS遮挡场景视频实例分割挑战赛,且竞赛服务器已经开放:
https://competitions.codalab.org/competitions/32377
挑战赛将决出全球冠亚季军,并颁发获奖证书。同时,我们征集相关领域(视频物体检测、视频实例分割、视频跟踪、视频推理、视频表征学习等)领域的论文,并邀请专业组委会决出最佳论文。目前投稿系统已经开放,欢迎投稿!
https://cmt3.research.microsoft.com/ICCVOVISW2021
时间表
数据集介绍
论文:https://arxiv.org/abs/2102.01558
数据集官网:http://songbai.site/ovis/
为了探究当前深度学习算法对遮挡场景的处理能力,我们构建了一个针对强遮挡场景的大型视频实例分割数据集Occluded Video Instance Segmentation (OVIS)。视频实例分割任务 (VIS) 要求算法能检测、分割、跟踪视频里的所有物体。
OVIS包含:
296K 个高质量分割标注
25 种常见类别
901 段严重遮挡场景视频
5,223 个目标对象
与现有的VIS数据集相比,OVIS最主要的特点就是视频数据里存在大量的多种多样的遮挡。同时,OVIS的视频级数据使算法可以学习如何利用物体的前后帧运动来处理遮挡问题;OVIS提供的像素级分割标注,也使算法能够学习物体的像素级边界,更容易区分密集的物体;此外,OVIS还提供了物体被遮挡程度的标注,给予了研究者更多的灵活性。因此,OVIS很适合用来探索针对遮挡场景的视觉理解算法。
目前的实验表明,现有的方法并不能在强遮挡场景下取得令人满意的结果,与之前广泛使用的YouTube-VIS数据集相比,几乎所有算法在OVIS上的性能指标都下降了一半以上。
组织者
CVPR和Transformer资料下载
后台回复:CVPR2021,即可下载CVPR 2021论文和代码开源的论文合集
后台回复:Transformer综述,即可下载最新的两篇Transformer综述PDF
CVer-Transformer交流群成立
扫码添加CVer助手,可申请加入CVer-Transformer 微信交流群,方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch和TensorFlow等群。
一定要备注:研究方向+地点+学校/公司+昵称(如Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群
▲长按加小助手微信,进交流群▲点击上方卡片,关注CVer公众号
整理不易,请给CVer点赞和在看