COCO(.json)格式 转换为 YOLO(.txt)格式训练(详细介绍,避坑贴)

       前段时间自己从COCO官网下载了数据集,但是一直没怎么打开看。但是今天突然想去跑训练的时候才发现,还需要进行格式转换,因为yolo只支持.txt标签方式。然后就是自己从网上查各种转换帖子,但是发现五花八门,错综复杂,都是各种错误,或者写的不清晰,白忙活了一中午,好在最终挑好了,把过程分享出来,希望给刚入门深度学习的小伙伴们避避坑,避免不必要的时间浪费在这上面。

 

官网下载目录如下:

train2017:包含训练所需要的图片

val2017:包含验证训练模型图片

annotations_trainval2017:包含标注json文件

下图是下载下来后其包括的注释文件内容,包括三类文件:

captions:为图像描述的标注文件

instances:为目标检测与实例分割的标注文件

person_keypoints:为人体关键点检测的标注文件

 运行环境,将下面代码cp到pycharm中,修改12,14, 62行,改为自己数据集的位置,运行即可

#COCO 格式的数据集转化为 YOLO 格式的数据集
#--json_path 输入的json文件路径
#--save_path 保存的文件夹名字,默认为当前目录下的labels。

import os
import json
from tqdm import tqdm
import argparse

parser = argparse.ArgumentParser()
#这里根据自己的json文件位置,换成自己的就行
parser.add_argument('--json_path', default='E:/data/COCO2017/annotations_trainval2017/annotations/instances_train2017.json',type=str, help="input: coco format(json)")
#这里设置.txt文件保存位置
parser.add_argument('--save_path', default='E:/data/COCO', type=str, help="specify where to save the output dir of labels")
arg = parser.parse_args()

def convert(size, box):
    dw = 1. / (size[0])
    dh = 1. / (size[1])
    x = box[0] + box[2] / 2.0
    y = box[1] + box[3] / 2.0
    w = box[2]
    h = box[3]
#round函数确定(xmin, ymin, xmax, ymax)的小数位数
    x = round(x * dw, 6)
    w = round(w * dw, 6)
    y = round(y * dh, 6)
    h = round(h * dh, 6)
    return (x, y, w, h)

if __name__ == '__main__':
    json_file =   arg.json_path # COCO Object Instance 类型的标注
    ana_txt_save_path = arg.save_path  # 保存的路径

    data = json.load(open(json_file, 'r'))
    if not os.path.exists(ana_txt_save_path):
        os.makedirs(ana_txt_save_path)

    id_map = {} # coco数据集的id不连续!重新映射一下再输出!
    with open(os.path.join(ana_txt_save_path, 'classes.txt'), 'w') as f:
        # 写入classes.txt
        for i, category in enumerate(data['categories']):
            f.write(f"{category['name']}\n")
            id_map[category['id']] = i
    # print(id_map)
    #这里需要根据自己的需要,更改写入图像相对路径的文件位置。
    list_file = open(os.path.join(ana_txt_save_path, 'train2017.txt'), 'w')
    for img in tqdm(data['images']):
        filename = img["file_name"]
        img_width = img["width"]
        img_height = img["height"]
        img_id = img["id"]
        head, tail = os.path.splitext(filename)
        ana_txt_name = head + ".txt"  # 对应的txt名字,与jpg一致
        f_txt = open(os.path.join(ana_txt_save_path, ana_txt_name), 'w')
        for ann in data['annotations']:
            if ann['image_id'] == img_id:
                box = convert((img_width, img_height), ann["bbox"])
                f_txt.write("%s %s %s %s %s\n" % (id_map[ann["category_id"]], box[0], box[1], box[2], box[3]))
        f_txt.close()
        #将图片的相对路径写入train2017或val2017的路径
        list_file.write('E:/data/COCO2017/train2017/%s.jpg\n' %(head))
    list_file.close()

最后我们会在自己设置好的目录中得到与图片对应的.txt文件,然后再把目录进行转换为yolo的目录格式即可训练

转换来说相对耗时,现把我已经整理好的COCO2017标准数据集(YOLO .txt)分享出来

无法分享~~~太大了

如果有疑问可以评论,看到我会回复。 

  • 42
    点赞
  • 120
    收藏
    觉得还不错? 一键收藏
  • 37
    评论
### 回答1: COCO(Common Objects in Context)数据集是一个用于图像识别和物体检测的大型数据集。它包含超过330,000张图像,其中包含超过2,500种物体的注释。此外,COCO数据集还提供了大量用于物体检测和物体关键点标注的图像,是进行目标检测/分割算法研究的重要数据源。 而YOLO(You Only Look Once)模型是一种轻量级的目标检测模型。相比于RCNN和SSD等传统模型,YOLO模型具有速度快、精度高等优点。因此,对于COCO数据集这样大型的数据集,使用YOLO模型进行物体检测是一个极好的选择。 当然,在使用YOLO模型进行目标检测时,需要将COCO数据集转换YOLO格式YOLO格式是一种文本文件格式,每个文件包含许多行。每行代表一个注释框,每一行有五个数字,分别是类别、x、y、w、h。其中,x、y、w、h代表的是目标框中心坐标和宽高。 最后值得一提的是,由于COCO数据集中存在的物体种类较多,为了提高YOLO模型的检测精度,可以加入训练好的预测模型来进行fine-tuning,这样可以大大提升YOLO模型的检测精度。 ### 回答2: COCO数据集是计算机视觉领域中广泛使用的数据集之一。它包含了超过33万张图片,并且其中每张图片都有80个不同的对象标注。COCO数据集可以用于许多计算机视觉任务,例如物体检测、图像分割和姿势估计等。 要在YOLO格式中使用COCO数据集,首先需要将COCO数据集的注释转换YOLO格式所需的注释格式。在COCO数据集中,每个注释都包括了包围框的位置和对应的类别标签。要将这些注释转换YOLO格式所需的注释,需要用相对于图像宽度和高度的坐标来表示包围框的位置。 每个包围框的坐标应该被归一化到0和1之间。对于每个包围框,YOLO格式需要记录下包围框的左上角坐标、宽度和高度。此外,需要根据每个包围框的类别标签为其分配相应的整数编号。建议将哪些类别应该对应哪些整数编号的信息记录在文件中。 转换COCO数据集的注释可能需要一些代码来自动执行这个任务。一些基本的数据处理技能也很有帮助,包括使用Python编程语言、熟悉JSON文件、CSV文件和操作系统命令等。 转换完成后,就可以开始使用YOLO格式COCO数据集来训练YOLO模型了。使用转换后的注释数据,可以通过训练过程来优化权重和偏置,以便YOLO模型可以检测图像中的物体并将其分类。要验证模型的性能,可以使用交叉验证或者COCO数据集提供的训练和验证数据集。最终,根据测试数据集的性能,可以评估训练出的YOLO模型的性能水平。 ### 回答3: 针对YOLO模型,coco数据集已经提供了训练和测试数据的标注文件,也就是包含物体的类别和其对应的坐标信息。这个标注文件格式YOLO训练和测试数据格式是一致的。下面给出了coco数据集中标注文件的格式说明: 1. 标注文件的命名规则:   train2017.json训练集   val2017.json – 验证集   test2017.json – 测试集 2. 标注文件的基本格式:   {   “info”: info, # 数据集信息   “licenses”: [],   “images”: [image], # 存储所有的图片信息   “annotations”: [anno], # 存储所有图片的标注信息   “categories”: [cat] # 存储所有物体类别信息   } 3. 标注文件中images节点的格式:   {   “id”: int, # 图像的标注id   “file_name”: str, # 图像文件名   “width”: int, # 图像的宽度   “height”: int, # 图像的高度   “date_captured”: datetime,   “license”: int,   “flickr_url”: str,   “coco_url”: str,   “width_original”: int, # 原始图像的宽度   “height_original”: int # 原始图像的高度   } 4. 标注文件中annotations节点的格式:   {   “id”: int, # 标注id   “image_id”: int, # 图像的标注id   “category_id”: int, # 物体类别id   “segmentation”: RLE or [polygon] or [polyline], # 物体的轮廓   “area”: float, # 物体的面积   “bbox”: [x,y,width,height], # 物体的边框坐标信息,x,y表示左上角的坐标,width表示物体的宽度,height表示物体的高度   “iscrowd”: 0 or 1 # 指示该物体是否是一个物体群体   } 5. 标注文件中categories节点的格式:   {   “id”: int, # 物体类别的id   “name”: str, # 物体类别的名称   “supercategory”: str # 物体类别的父类别   } 对于使用YOLO模型进行目标检测,我们可以通过将以上coco数据集的标注文件转换YOLO格式,然后再进行模型的训练和测试。在转换YOLO格式时,需要根据物体的边框坐标信息和图像的大小计算出物体的中心点坐标和宽高比例等信息,以便于模型能够准确地检测出物体的位置和类别。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 37
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值