[论文阅读 2020 ECCV 目标跟踪]TAO: A Large-Scale Benchmark for Tracking Any Object

简介

paper:TAO: A Large-Scale Benchmark for Tracking Any Object

code:TAO-Dataset/tao

这篇论文关注到了跟踪数据集普遍存在的一个问题就是:现有的跟踪数据集中的跟踪对象普遍是personvehicle(如下图所示,作者统计了主流的跟踪数据集中样本种类的占比情况)。

在这里插入图片描述

这篇论文提出了一种样本种类更加丰富的可用于多目标跟踪任务和单目标跟踪任务的数据集TAO和与之匹配的评测工具。

主要内容

TAO数据集特征

在这里插入图片描述

这篇论文提出的数据集TAO包含833个类别,其中488个类别是LVIS这个数据集中已有的标签,而另外345个类别是LVIS这个数据集之外的标签。

数据集TAO中的数据来源于六个其他数据集:ArgoVerse,BDD,Charades,LaSOT,YFCC100M,HACS.

TAO数据集中的标签类别大部分(95%)属于LVIS这个数据集的类别(关于LVIS数据集:LVIS: A Dataset for Large Vocabulary Instance Segmentation)

TAO数据集标签制作流程

TAO数据集标签制作的流程不同于传统的标签制作:

在这里插入图片描述

如上图所示,TAO标签的标注分为三步:

  1. 对象挖掘和跟踪(Object mininig and tracking): 对于每个视频帧序列的标注,要求打标签的人将视频帧中所有运动的对象都标注出来
  2. 对象分类(Object categrorization): 标注程序给出LVIS数据集已有的类别,让打标签的人给标注的对象分配类别,标注程序允许打标签的人给对象分配LVIS数据集中不存在的类别
  3. 联合标签(Federated "exhaustive" labeling): 标注完一组视频帧序列后,标注程序列出没有标注完整的帧,并提示该帧中哪些标签没有标注
TAO数据集标签格式

TAO数据集标签格式如下(摘自源码),大部分标签的格式与MS COCO类似。

Annotation file format:
{
    "info" : info,
    "images" : [image],     #图像相关属性
    "videos": [video],      #视频帧相关属性
    "tracks": [track],      # {'category_id': 805, 'id': 72, 'video_id': 11}
    "annotations" : [annotation],
    "categories": [category], # { 'id': 1, 'name': 'acorn',  'synset': 'acorn.n.01',....}
    "licenses" : [license],
}

info: As in MS COCO
image: {
    "id" : int,
    "video_id": int,
    "file_name" : str,
    "license" : int,
    # Redundant fields for COCO-compatibility
    "width": int,
    "height": int,
    "frame_index": int
}
video: {
    "id": int,
    "name": str,            #记录视频的相对位置 比如 'train/YFCC100M/v_f69ebe5b731d3e87c1a3992ee39c3b7e'
    "width" : int,          #视频中的图像width
    "height" : int,         #视频中的图像height
    "neg_category_ids": [int],
    "not_exhaustive_category_ids": [int],
    "metadata": dict,  # Metadata about the video
}
track: {
    "id": int,              #跟踪任务ID
    "category_id": int,     #类别ID
    "video_id": int         #video ID
}
annotation: {
    "image_id": int,
    "track_id": int,
    "bbox": [x,y,width,height],     #[左上角x,左上角y,width,height]
    "area": float,
    # Redundant field for compatibility with COCO scripts
    "category_id": int
}
category: {
    #...
}
license: {
    #...
}
评测细节
Oracles的设置

为了分析单目标跟踪算法与多目标跟踪算法在TAO数据集上的表现,这篇论文提出了两种Oracles

  • first oracle

The first, a class oracle, computes the best matching between predicted and groundtruth tracks in each video. Predicted tracks that match to a groundtruth track with 3D IoU > 0.5 are assigned the category of their matched groundtruth track.

  • second oracle

The second oracle computes the best possible assignment of per-frame detections to tracks, by comparing them with groundtruth. When doing so, class predictions for each detection are held constant.

Init firstInit biggest两种初始方式

Init firstInit biggest两种方式不同之处体现在两点:

  1. 跟踪器的初始化不同: 对于Init first,输入第一帧图像的bbox对跟踪器进行初始化;对于Init biggest,输入视频帧序列中最大的bbox对跟踪器进行初始化;
  2. 跟踪器的执行过程不同:对于Init first,跟踪器正常执行,即从第一帧依次跟踪到最后一帧;对于Init biggest,跟踪器分两段跟踪,假设视频帧序列中最大的bbox出现在第k帧,对于前k帧是从后往前逆序输入跟踪(Track backward),对于第k帧至最后一帧是从前往后顺序输入跟踪(Track forward).
# Track forward
try:
    if show_progress:
        logging.info('Tracking forward')
    #对于后半段,从前往后跟踪(Track forward)
    boxes = do_track(frames[sot_init_frame:], output_forward_video)
except (ValueError, subprocess.CalledProcessError):
    continue

# Track backward
if do_track_backward:       #当使用biggest的时候为true
    if show_progress:
        logging.info('Tracking backward')
    #对于前半段,从后往前跟踪(track backward)
    track_frames = frames[first_annotated_frame:sot_init_frame+1][::-1]
    try:
        backward_boxes = do_track(track_frames, output_backward_video)
    except ValueError:
        continue
    backward_boxes = backward_boxes[::-1]
    assert np.all(backward_boxes[-1] == boxes[0])
    boxes = np.vstack((backward_boxes[:-1], boxes))
TAO评测流程

TAO评测程序的执行流程可以分为两步:

  1. 在跟踪器上跑TAO测试集:首先读取TAO的数据集,读取图片路径、bbox等数据,之后借助pysot定义跟踪器并根据Init的两种方式对跟踪器进行初始化,之后通过pysot跑完所有数据,并将跟踪器的预测结果保存到文件results.json
  2. 对预测结果进行评测:首先读取预测结果results.json,并根据预先设置的oraclethreshold等对预测结果进行适当处理,最后计算相关的评测指标(APmAP等)
TAO实验结果

在这里插入图片描述

这里,我对SiamRPN++的结果进行了复现,采用pysot中提供的SiamRPN++siamrpn_r50_l234_dwxcorrval数据集上进行了测试(使用THRESHOLD 0.7),结果如下:

APAR
Init first30.1533.49
Init biggest36.0837.67

论文中采用THRESHOLD 0.7 Init firstAP值是29.7,复现结果是30.15结果比较接近。

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
城市景观是计算机视觉领域的重要研究方向之一,而Cityscapes数据集则是这一领域中广泛使用的数据集之一。而VIPriors Cityscapes的MiniCity数据集是Cityscapes数据集的一个子集,专注于城市中车辆与行人的视觉感知问题。 VIPriors Cityscapes的MiniCity数据集采用了Cityscapes数据集中部分城市的场景,并标注了车辆和行人的位置和姿态信息。这个子集的目的是鼓励研究者和开发者在城市场景中进行车辆和行人的认知与感知研究,为城市交通和智能驾驶等领域的发展提供参考。 VIPriors Cityscapes的MiniCity数据集的标注信息包括车辆和行人的边界框位置、物体的类别、姿态信息等。这些标注信息可以用于训练和评估车辆和行人检测、分类和跟踪等算法的性能。研究者可以使用这个数据集开展相关研究,比如车辆与行人的识别、行为检测和预测等任务。 与Cityscapes数据集相比,VIPriors Cityscapes的MiniCity数据集包含的图像数量较少,但对于城市场景中的车辆和行人感知问题具有一定的代表性。这个数据集的发布旨在促进城市交通领域的深度学习算法研究和应用,为智能交通和智能驾驶等领域的发展做出贡献。 总之,VIPriors Cityscapes的MiniCity数据集是Cityscapes数据集的一个子集,用于研究城市场景中的车辆和行人的视觉感知问题。它的发布将为城市交通和智能驾驶等领域的算法研究和应用提供了更多的数据资源。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值