COCO数据集详解

COCO的全称是Common Objects in Context,是微软团队提供的一个可以用来进行图像识别的数据集。MS COCO数据集中的图像分为训练、验证和测试集。 Download && Paper

  • 2014:训练集 + 验证集 + 测试集
  • 2015:测试集
  • 2017:训练集 + 验证集 + 测试集

在这里插入图片描述
PK内容包括: 目标检测与实例分割、人体关键点检测、材料识别、全景分割、图像描述
在这里插入图片描述

目标检测/实例分割数据标注文件解析

本文以“** coco2017/annotations/instance_val2017.json**”标注文件为例。
注释文件中的内容就是一个字典数据结构,包括以下5个key-value对。其中info、images、licenses三个key是不同类型标注文件共享的,最后的annotations和categories按照不同的任务有所不同
在这里插入图片描述(一)info字段
在这里插入图片描述
(二)licenses字段:包括下图中的内容,里面集合了不同类型的licenses,并在images中按照id号被引用,基本不参与到数据解析过程中。
在这里插入图片描述
(三)images字段:包括下图中的内容,对应了每张图片的详细信息,其中的id号是被分配的唯一id
在这里插入图片描述

(四)categories字段:包括下图中的内容。其中supercategory是父类,name是子类,id是类别id(按照name统计)。比如下图中所示的。coco数据集共计有80个类别(按照name计算的)。
在这里插入图片描述
(五)annotations字段:包括下图中的内容,每个序号对应一个注释(会有所在图片id)一张图片上可能有多个注释

  • category_id:该注释的类别id;
  • id:当前注释的id号
  • image_id:该注释所在的图片id号
  • area:区域面积
  • bbox:目标的矩形标注框
  • iscrowd:0或1。0表示标注的单个对象,此时segmentation使用polygon表示;1表示标注的是一组对象,此时segmentation使用RLE格式。
  • segmentation
    • 若使用polygon标注时,则记录的是多边形的坐标点,连续两个数值表示一个点的坐标位置,因此此时点的数量为偶数
    • 若使用RLE格式(Run Length Encoding(行程长度压缩算法))

RLE算法概述:
将图像中目标区域的像素值设定为1,背景设定为0,则形成一个张二值图,该二值图可以使用z字形按照位置进行编码,例如:0011110011100000……
但是这样的形式太复杂了,可以采用统计有多少个0和1的形式进行局部压缩,因此上面的RLE编码形式为:2-0-4-1-2-0-3-1-5-0……(表示有2个0,4个1,2个0,3个1,5个0)

在这里插入图片描述

在这里插入图片描述

  • 2
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
引用\[1\]:运行完成后,在training_myself/dataset/COCO/目录下得到一个mask2014/目录,里面是未标注人的图片。将这个文件夹拷贝到training_myself/dataset/COCO/images/目录下以便后续处理。引用\[2\]:由于要训练自己的数据集,所以就需要人工标注数据,使用软件为labelme。该工具非常好用,基本可以满足深度学习众多任务的数据标注需求。引用\[3\]:按照编译官方最新的caffe的方法来编译这个用于训练openpose模型的caffe_train会遇到很多错误,主要原因我认为是这个caffe_train有过时了,里面的部分源码都是很老版本的caffe中的。而我们所用的一些caffe相关的工具,软件,库肯定都是较新的版本。 针对openpose改进训练数据集的问题,可以采取以下步骤: 1. 首先,确保你已经准备好了自己的数据集,并使用labelme等工具进行人工标注。将标注好的数据集放置在合适的目录下,以便后续处理。 2. 接下来,你可以根据自己的需求对数据集进行改进。例如,你可以增加更多的样本,以增加数据集的多样性和覆盖范围。你还可以对标注的准确性进行检查和修正,确保每个位置的标注足够准确。 3. 此外,你还可以根据需要对数据集进行筛选,去除一些特征不明显或不符合要求的样本,以提高训练的准确率。 4. 如果你遇到了编译caffe_train的问题,可以尝试查找最新的编译方法或使用更新的版本。确保你使用的工具、软件和库与你所使用的openpose版本兼容。 通过以上步骤,你可以改进训练数据集,使其更适合用于openpose模型的训练。 #### 引用[.reference_title] - *1* *3* [OpenPose训练自己的数据集模型Realtime Multi-Person Pose Estimation](https://blog.csdn.net/qq_38469553/article/details/82119292)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [OpenPose(tensorflow)工程详解系列(一)—— 制作训练数据集](https://blog.csdn.net/kxh123456/article/details/114531371)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值