数据集积累学习---CoCo数据集(and others)

  1. 关于CoCo数据集:
    1. 是大规模的数据集。
    2. 是目标检测领域一个比较有名的数据集
    3. 包含了自然图片,生活中常见的目标图片,背景比较复杂,目标数量比较多,目标尺寸更小,所以在该数据集上的任务更难。
    4. 对于检测任务,衡量一个模型的好坏更倾向于使用CoCo数据集上的检测结果。
    5. COCO有5种类型的标注,分别是:物体检测、关键点检测、实例分割、全景分割、图片标注,都是对应一个json文件。
  2. 根据任务记录相关数据集:
    1. 图像分类任务:
      1. 分类需要二进制的标签来确定目标是否在图像中。
      2. 著名的数据集有CIFAR-10 和CIFAR-100(在32X32图像上分别提供10和100类),imagenet(22000类,每类500-1000图像)
    2. 目标检测:
      1. 通过bounding box确定目标位置。
      2. 数据集:
        1. caltech pedestrian detaset(包含350000个bounding box标签),PASCAL VOC数据(包括20个目标,over11000图像,over27000个目标bounding box)
        2. imagenet数据下获取的detection数据集(200类,400000张图像,350000个bounding box)。
        3. 由于一些目标之间有着强烈的关系而非独立存在,在特定场景下检测某种目标是是否有意义的,因此精确的位置信息比bounding box更加重要。
    3. 语义场景标注:需要像素级的标签。数据集主要包括室内场景和室外场景的,一些数据集包括深度信息。SUN dataset(包含908个场景类,3819个常规目标类(person, chair, car)和语义场景类(wall, sky, floor),每类的数目具有较大的差别)
    4. 其他数据集:Middlebury datasets,包含立体相对,多视角立体像对和光流;Berkeley Segmentation Data Set (BSDS500)可评价分割和边缘检测算法

参考:目标检测数据集MSCOCO详解 - 知乎 (zhihu.com)

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
对于使用COCO数据集训练ST-GCN(Spatio-Temporal Graph Convolutional Networks)模型,你需要完成以下步骤: 1. 数据准备:从COCO数据集中提取出包含人体姿势信息的图像。COCO数据集提供了标注了人体关键点的图像,你可以使用这些关键点来表示人体姿势。 2. 数据预处理:对于每个图像,你需要将关键点坐标转换为关节点的三维坐标表示。这可以通过将每个关节点的二维坐标映射到图像平面上来实现。 3. 构建图形:使用关节点的三维坐标来构建图形结构。ST-GCN使用图形结构来建模人体姿势的时空关系。你可以根据关节点之间的距离或连接关系来构建图形。 4. 特征提取:基于构建的图形结构,你可以使用ST-GCN模型提取人体姿势的时空特征。ST-GCN模型采用了时空图卷积操作,可以有效地捕捉动作序列中的时空信息。 5. 训练模型:使用预处理的数据和特征提取的结果,你可以将ST-GCN模型进行训练。训练过程中,你可以使用COCO数据集中提供的标注信息来监督模型的学习。 6. 模型评估:训练完成后,你可以使用测试集数据对训练好的ST-GCN模型进行评估。评估指标可以包括准确率、召回率等。 请注意,以上步骤仅为一般步骤,具体实现可能因应用场景和需求而有所不同。此外,ST-GCN模型的训练可能需要较大的计算资源和时间,因此你可能需要考虑使用GPU加速和分布式训练等技术来加快训练过程。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值