制作用于图像语义分割训练的标签数据【图像分割】【labelme】

*写在前面

读者您好!本文主要就如何制作用于图像语义分割网络训练的标签数据进行介绍,包括利用labelme制作json数据,再将json数据转换为图像标签等,同时也介绍了一些批量管理文件的小方法。由于这是我的第一篇技术博客,所以可能内容文笔不免令人吐槽,还烦请多提意见!

一、使用labelme制作json数据

1、安装labelme

用于图像语义分割的训练数据一般都需要对物体进行像素级的标记,我们采用labelme来实现这个操作。在这之前需要先对python进行安装并按如下在cmd中安装labelme:

// 首先打开cmd并进入相应的安装环境
activate pytorch //这里进入我一般使用的pytorch环境
pip install labelme

2、利用labelme制作json数据

安装好后再次进入终端中,启动labelme:

labelme

启动后的界面如下图所示:
labelme启动界面
视图左上角打开样本数据或样本所在文件夹:
在这里插入图片描述
在图像处点击右键选择标记工具,一般选择“Polygons”,然后就可以勾勒目标轮廓。轮廓一定要封闭,结束一个封闭轮廓的勾勒后会提醒你标记相应的标签类别(这里我选择勾勒了骨头,因此为“bone”):
在这里插入图片描述
点击“ok”后即可形成json并及时保存(左边save)。

二、将json数据转化为图像数据

1、单个json数据

该情况很简单,直接进入json数据所在的文件夹,然后进入终端进行如下操作:

 labelme_json_to_dataset  <json文件名>.json

2、多个json数据同时转换

首先打开对应环境下".\Lib\site-packages\labelme\cli"文件夹(我的是“C:\ProgramData\Anaconda3\envs\pytorch-gpu\Lib\site-packages\labelme\cli”),将原有的json_to_dataset.py文件中代码替换为以下内容(或者重新建立该文件):

import argparse
import json
import os
import os.path as osp
import warnings
import PIL.Image
import yaml
from labelme import utils
import base64
 
def main():
    warnings.warn("This script is aimed to demonstrate how to convert the\n"
                  "JSON file to a single image dataset, and not to handle\n"
                  "multiple JSON files to generate a real-use dataset.")
    parser = argparse.ArgumentParser()
    parser.add_argument('json_file')
    parser.add_argument('-o', '--out', default=None)
    args = parser.parse_args()
 
    json_file = args.json_file
    if args.out is None:
        out_dir = osp.basename(json_file).replace('.', '_')
        out_dir = osp.join(osp.dirname(json_file), out_dir)
    else:
        out_dir = args.out
    if not osp.exists(out_dir):
        os.mkdir(out_dir)
 
    count = os.listdir(json_file) 
    for i in range(0, len(count)):
        path = os.path.join(json_file, count[i])
        if os.path.isfile(path):
            data = json.load(open(path))
            
            if data['imageData']:
                imageData = data['imageData']
            else:
                imagePath = os.path.join(os.path.dirname(path), data['imagePath'])
                with open(imagePath, 'rb') as f:
                    imageData = f.read()
                    imageData = base64.b64encode(imageData).decode('utf-8')
            img = utils.img_b64_to_arr(imageData)
            label_name_to_value = {'_background_': 0}
            for shape in data['shapes']:
                label_name = shape['label']
                if label_name in label_name_to_value:
                    label_value = label_name_to_value[label_name]
                else:
                    label_value = len(label_name_to_value)
                    label_name_to_value[label_name] = label_value
            
            # label_values must be dense
            label_values, label_names = [], []
            for ln, lv in sorted(label_name_to_value.items(), key=lambda x: x[1]):
                label_values.append(lv)
                label_names.append(ln)
            assert label_values == list(range(len(label_values)))
            
            lbl = utils.shapes_to_label(img.shape, data['shapes'], label_name_to_value)
            
            captions = ['{}: {}'.format(lv, ln)
                for ln, lv in label_name_to_value.items()]
            lbl_viz = utils.draw_label(lbl, img, captions)
            
            out_dir = osp.basename(count[i]).replace('.', '_')
            out_dir = osp.join(osp.dirname(count[i]), out_dir)
            if not osp.exists(out_dir):
                os.mkdir(out_dir)
 
            PIL.Image.fromarray(img).save(osp.join(out_dir, 'img.png'))
            #PIL.Image.fromarray(lbl).save(osp.join(out_dir, 'label.png'))
            utils.lblsave(osp.join(out_dir, 'label.png'), lbl)
            PIL.Image.fromarray(lbl_viz).save(osp.join(out_dir, 'label_viz.png'))
 
            with open(osp.join(out_dir, 'label_names.txt'), 'w') as f:
                for lbl_name in label_names:
                    f.write(lbl_name + '\n')
 
            warnings.warn('info.yaml is being replaced by label_names.txt')
            info = dict(label_names=label_names)
            with open(osp.join(out_dir, 'info.yaml'), 'w') as f:
                yaml.safe_dump(info, f, default_flow_style=False)
 
            print('Saved to: %s' % out_dir)
if __name__ == '__main__':
    main()

然后进入到对应环境下的“\Scripts”(我的是”C:\ProgramData\Anaconda3\envs\pytorch-gpu\Scripts“),进入终端后执行以下操作即可生成图像数据:

labelme_json_to_dataset.exe <json所在文件夹名>

但是这些文件均在“\Scripts”文件夹下,记得将其取出。

三、将每一个图像标签数据从对应文件夹中取出来

比如目前我有10个经由json文件转化得来的图像标签数据文件夹(很可恶,一个json一个文件夹)。
在这里插入图片描述
创建如下python文件并运行即可将每个文件夹中所有标签数据取出来并按顺序命名且排列:

import os
import random
import shutil
import re

GT_from_PATH = "图像文件夹们的母文件夹名称"
GT_to_PATH = "目标文件夹名称"

filepath_list = os.listdir(GT_from_PATH)

for i, file_path in enumerate(filepath_list):
    gt_path = "{}/{}_gt.png".format(os.path.join(GT_from_PATH, filepath_list[i]), file_path[:-5])
    print("copy {} to ...".format(gt_path))
    gt_name = ["label.png".format(file_path[:-5])]
    gt_file_path = os.path.join(GT_from_PATH, file_path)
   
    from_dir=gt_file_path 
    to_dir= GT_to_PATH   
    Name_list="bonelabel{}.png".format(i+1)#为输出图像命名

    if not os.path.isdir(to_dir):
        os.mkdir(to_dir)
    try:
        if not os.path.isfile(os.path.join(from_dir, "label.png")):
            print("{} is not existed".format(os.path.join(from_dir, Name_list)))
        shutil.copy(os.path.join(from_dir, "label.png"), os.path.join(to_dir, Name_list))
    except:
        pass
    print("{} has copied to {}".format(from_dir, to_dir))

结果如下,至此完成了图像标签数据从json文件制作到处理最终输出图像标签的全过程:
在这里插入图片描述

四、其他一些在操作过程中会遇到的小问题和解决方法

1、文件名称中带有中文括号,如何删除括号

问题如图,想要取除其中的中文括号(一般出现在你想要批量命名一堆文件时,全选后重命名相同内容就会出现这个效果):
在这里插入图片描述
在所属文件夹下创建txt文件,并添加以下内容:

@Echo Off&SetLocal ENABLEDELAYEDEXPANSION
FOR %%a in (*) do (
set "name=%%a"
set "name=!name: (=!"
set "name=!name:)=!"
ren "%%a" "!name!"
)
exit

保存后,重命名其后缀为.bat然后双击运行即可,效果如下:
在这里插入图片描述

2、统一修改文件名称

该问题解决方法推荐一位博主,亲测有效:
链接: https://www.cnblogs.com/HYLering/p/9190943.html.

参考

链接1: https://blog.csdn.net/u011574296/article/details/79740633.
链接2: https://blog.csdn.net/yql_617540298/article/details/81110685.

  • 21
    点赞
  • 118
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
马尔可夫随机场(MRF)在图像分割中的应用是将具有相同性质的像素点聚集为一类,从而实现图像的分类和分割。图像分割问题可以看作是一个图像聚类问题,即将像素点分为不同的类别,给每个像素点分配一个标签类。为了求解MRF模型中的参数W,我们需要根据观测到的图像S来计算条件概率P(W|S),即给定S的情况下求取W的概率。图像分割问题就变成了求取这个概率的最大值,从而得到图像的分割标签。\[1\]\[2\] 在实际应用中,可以采用随机的预分类方法来进行图像分割,虽然这种方法得到的是一个局部最优解,但在分割类别数较大的情况下,它的效果会明显好于随机预分类。这是因为随着类别数的增加,问题的维度也增加,导致存在更多的局部最优解。因此,从随机预分类(最差的情况)开始,向最优解方向前进时,可能会在中途遇到一个局部最优解而无法继续前进。总的来说,图像分割是一个非常复杂的问题,很难找到最优解。\[3\] 以上是关于MRF模型在图像分割中的应用的简要介绍。如果你对具体的MRF模型的实现代码感兴趣,可以参考提供的参考文献中的链接。 #### 引用[.reference_title] - *1* *2* *3* [从贝叶斯理论到马尔可夫随机场(MRF)--以图像分割为例](https://blog.csdn.net/qq_40507857/article/details/110164691)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值