关于mmsegmentation的自定义数据集格式的一些坑(2)

这次又有任务要跑mmseg,我本意是拒绝的,奈何老板喜欢,mm系列的东西,那一套流程,真心玩不转,玩着玩着心就累了。

mm系列和detectron差不多,要找其代码流转,都是要先看配置文件,比较麻烦,需要一定的经验,然后前面两篇都写了我是怎么查看的,这个东西多说无益,我只能说我是怎么看的,希望对各位有所帮助。

一:安装

这个mmsegmentation,我用的官方的代码,安装还是非常方便的,就是先装一个mmcv再装本体就可以了,mmcv,文档里面写的是mmcv和mmcv-full都可以,但是似乎是mmcv会有什么问题,所以建议安装mmcv-full,具体的文档写的还比较详细,不过因为他是conda新建了一个环境,如果想要直接装的话,应该是

pip install mmcv-full=={mmcv-version} -f https://download.openmmlab.com/mmcv/dist/cu{cuda-version}/torch{t-version}/index.html

这里,如果mmcv不指定版本的话,mmcv-version这一项就去掉,cuda的version,10.1就是101,11.1就是111,我是10.2,所以就是cu102,torch的版本就自己看一下,建议按照自己的环境来装

pip install mmcv-full -f https://download.openmmlab.com/mmcv/dist/cu102/torch1.8.1/index.html

安装需要一定的时间,装好之后再pip装一下mmseg就可以了,我是下载项目,然后再装的

git clone https://github.com/open-mmlab/mmcv.git
cd mmcv
pip install -e .

装好后可能还需要一些依赖库,直接pip就行了

 

装好只是第一步,然后就要开始漫长的查代码之途了。

 

二:数据集

这边用的配置文件是driver数据集的配置文件,但是我需要用自己的数据集,最简单的做法是将自己的数据集转成他的格式,但是driver貌似不好下载,这边还是想折腾代码,并且文档写了如何自定义,只是看过之后,直呼,果然没什么用,以下是我的个人解决方式。

看一下dataset的配置文件

dataset_type = 'CustomDataset'
data_root = 'data/customdataset'

第一项是数据格式类型,这个不能乱写,在“mmseg/datasets/__init__.py”中有写支持哪些,如果有兴趣的话,可以参照类似的自己的写一个,我这边就是用CustomDataset就好了;第二项是图片文件夹存放位置的路径,代码会将这个路径作为根目录,拼接上下面的图片路径,所以这个参数有值的话,下面的路径就是要相对这个路径来填

稍微看一下这个CustomDataset的代码,他默认是label和img放再一起,只通过后缀名来区分,所以他的类初始化的时候,要传两个文件的后缀名,这么操作也行,本着折腾代码的目的,我这边是,将我需要读取的文件名写在一个txt文档中,作为split的参数传入

def __init__(self,
                 pipeline,
                 img_dir,
                 img_suffix='.jpg',
                 ann_dir=None,
                 seg_map_suffix='.png',
                 split=None,
                 data_root=None,
                 test_mode=False,
                 ignore_index=255,
                 reduce_zero_label=False,
                 classes=None,
                 palette=None):

这是这个类的初始化的部分,其中split这个参数的意义是,如果这个参数非None,那他只会读取该文件内写的文件,从这个实现方式可以看到

img_infos = []
        if split is not None:
            with open(split) as f:
                for line in f:
                    img_name = line.strip()
                    img_info = dict(filename=img_name + img_suffix)
                    if ann_dir is not None:
                        seg_map = img_name + seg_map_suffix
                        img_info['ann'] = dict(seg_map=seg_map)
                    img_infos.append(img_info)

不过我是将图片名和他对应的mask的文件名写在同一行,以tab隔开,所以这里需要修改一下

with open(split) as f:
                for line in f:
                    # img_name = line.strip()
                    # img_info = dict(filename=img_name + img_suffix)
                    # if ann_dir is not None:
                    #     seg_map = img_name + seg_map_suffix
                    #     img_info['ann'] = dict(seg_map=seg_map)
                    # img_infos.append(img_info)
                    imgPath, maskPath = line.strip().split('\t')
                    img_info = dict(filename=f'{self.data_root}/{imgPath}')
                    img_info['ann'] = dict(seg_map=f'{self.data_root}/{maskPath}')
                    img_infos.append(img_info)

这里的路径我的传参有点问题,我的txt内的路径是相对data_root的,后面还有一些需要改的,根据报错修改就好,这就省略了

这里再说一下那个dataset的配置文件,比如split怎么传,后缀名怎么修改默认,因为文件很长,只放了参数这部分,上面一部分是pipeline,就是图片需要经过哪几个流程,比如需要loading,crop之类的,一看就懂

data = dict(
    samples_per_gpu=10,
    workers_per_gpu=2,
    train=dict(
        type='RepeatDataset',
        times=40000,
        dataset=dict(
            type=dataset_type,
            data_root=data_root,
            img_dir='img',
            ann_dir='mask',
            img_suffix='.jpg',
            seg_map_suffix='.jpg',
            split='train.txt',
            pipeline=train_pipeline)),
    val=dict(
        type=dataset_type,
        data_root=data_root,
        img_dir='img',
        ann_dir='mask',
        img_suffix='.jpg',
        seg_map_suffix='.jpg',
        split='val.txt',
        pipeline=test_pipeline),
    )

在pipeline中,传参就是参数直接写在后面即可,这个data不一样,参数是作为dataset字典的内容写出来的

train_pipeline = [
    dict(type='LoadImageFromFile', to_float32=True),
    dict(type='LoadAnnotations'),
    dict(type='Resize', img_scale=img_scale, ratio_range=(0.5, 2.0)),
    dict(type='RandomCrop', crop_size=crop_size, cat_max_ratio=0.75),
    dict(type='RandomFlip', prob=0.5),
    dict(type='PhotoMetricDistortion'),
    dict(type='Pad', size=crop_size, pad_val=0, seg_pad_val=255),
    dict(type='DefaultFormatBundle'),
    dict(type='Collect', keys=['img', 'gt_semantic_seg'])
]

这个pipeline中,loadimage这里,他的代码流程是,刚刚不是在custom.py中嘛,读取文件路径之后,这个__getitem__方法就是dataloader的读取图片的部分,根据里面的流程走,走到

def prepare_train_img(self, idx):
        img_info = self.img_infos[idx]
        ann_info = self.get_ann_info(idx)
        results = dict(img_info=img_info, ann_info=ann_info)
        self.pre_pipeline(results)
        return self.pipeline(results)

这个函数,返回的地方,self.pipeline就是上面的train_pipeline,可以找一下LoadImageFromFile这个类的位置,仔细看一下他是怎么读取的,他的传参,就是results,两个对照看一下,很容易理解里面的参数都是些啥,修改也就比较方便

重点说一下这个to_float32,这个值是默认False的,他是读取图片了之后,可以转成np.float32的类型,但是我这边在训练的时候一直报错,Input type (torch.cuda.ByteTensor) and weight type (torch.cuda.FloatTensor) should be the same,这里我一直百思不得其解,后来根据报错追溯代码,发现输入网络的地方,输入tensor的dtype是torch.uint8,我也是经历少,不知道这个类型是不能输入网络的,转一下就可以了。不过本着折腾代码的精神,后来设置了to_float32为True,但是依然不行,那么必然是后面的步骤中,哪一步又重新转回的uint8,经过一番查找,在PhotoMetricDistortion这个里面,感兴趣可以自己查查看,或者不查,在其return之前,将图片再转一次类型。

这里多提下,在调试的时候,直接打印result['img']的shape或者dtype的话会报错'DataContainer' object has no attribute 'shape',此时应该是result['img'].data.shape

 

第2个坑是,在解决上面的问题之后,一直报这个错,Default process group has not been initialized, please make sure to call init_process_group.,对我这样的渣渣太不友好了,这个查了很久,都说是,他是要求多卡,但是你是单卡,虽然我电脑是多卡,但是明明文档都说了可以单卡,还提供了单卡的执行示例。最后翻看issue,发现model这个配置文件中,第一句

norm_cfg = dict(type='SyncBN', requires_grad=True)

将SyncBN改成BN就可以单卡了,唉,心好累。。。。

 

最后,关于Input type (torch.cuda.ByteTensor) and weight type (torch.cuda.FloatTensor) should be the same这个报错,真的很烦啊,而且很明显的问题啊,为啥没有人提问,难道是我操作失误么,,,现在还在训练,也不知道会不会有别的问题

  • 10
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
### 回答1: mmsegmentation是一个基于PyTorch的开源图像分割工具箱,可以用于训练自己的数据集。以下是训练自己数据集的步骤: 1. 准备数据集:将数据集按照训练集、验证集和测试集划分,并将其转换为mmsegmentation所需的格式。 2. 配置训练参数:在mmsegmentation中,训练参数可以通过配置文件进行设置,包括模型、优化器、学习率、损失函数等。 3. 开始训练:使用mmseg的命令行工具开始训练模型,可以通过设置参数来控制训练过程。 4. 评估模型:训练完成后,可以使用mmseg的命令行工具对模型进行评估,包括计算IoU、mIoU等指标。 5. 模型预测:使用训练好的模型对新的图像进行分割预测。 需要注意的是,训练自己的数据集需要一定的计算资源和时间,同时需要对数据集进行充分的预处理和清洗,以提高模型的训练效果。 ### 回答2: mmsegmentation 是一个用于图像分割的深度学习框架,它基于 PyTorch 框架,已经被广泛应用于图像语义分割、实例分割、阴影检测等任务。其所支持的数据类型包括常用的数据集,如 PASCAL VOC、ADE20K、COCO 等。而对于我们自己的数据集,也可以通过一系列步骤来应用于 mmsegmentation 中。 首先,在准备数据时,需要将自己的数据集转化为 mmsegmentation 所支持的数据格式。具体来说,需要将数据集的图片分成训练集、验证集和测试集,同时生成一个 JSON 格式的标注文件,以供训练和测试时使用。同时,还需要对数据进行增强处理,包括大小缩放、翻转、剪裁等等。 其次,在定义模型时,需要根据自己的数据类型选择适合的模型和损失函数。这些模型和损失函数已经在 mmsegmentation 中预定义好了,同时也可以自行定义自己的模型和损失函数。例如,对于常用的图像分割任务,可以使用常见的网络模型,如 UNet、PSPNet 等。 最后,使用 mmsegmentation 进行训练和测试时,需要进行一些参数的配置。主要包括训练参数和测试参数两部分。训练参数包括训练数据集、验证数据集、批量大小、学习率、学习率策略、优化算法等等。测试参数包括测试数据集、模型路径等等。 总体而言,mmsegmentation 是一个非常灵活和易于使用的工具,我们可以使用它来训练和测试自己的数据集。同时,通过不断地调整和优化参数,我们可以得到更加准确的分割结果。 ### 回答3: mmsegmentation是一个基于PyTorch框架的图像分割工具包,可以用来实现各种图像分割算法,如FCN、U-Net、DeepLab、Mask R-CNN等。mmsegmentation提供了训练和测试的代码和模型,也支持自定义数据集的训练。 下面我们将重点介绍mmsegmentation训练自己的数据集: 1. 数据集准备 在训练之前,需要准备好一个包含训练、验证和测试图像以及它们的标注的数据集数据集应该按照一定的文件结构进行组织,比如: ``` + dataset + train - image_1.jpg - image_1.png - ... + val - image_1.jpg - image_1.png - ... + test - image_1.jpg - ... ``` 其中,“train”目录包含训练图像和它们的标注,“val”目录包含验证图像和它们的标注,“test”目录包含测试图像。图像文件可以是jpg、png等格式,标注文件可以是png、mat等格式。注意,标注文件应该和图像文件保持对应,且标注像素的取值通常为0、1、2、...、n-1,表示不同的目标类别。 2. 数据集注册 注册自己的数据集需要通过继承mmcv的Dataset类来实现。自定义数据集需要实现少量方法,包括: * \_\_init\_\_:初始化方法,包括定义类别列表、文件列表等。 * \_\_len\_\_:返回数据集中样本数量。 * \_\_getitem\_\_:返回数据集中指定下标的一条数据和标注。 需要注意的是,返回的数据应该按照mmcv的格式进行处理,比如将图像和标注分别转成ndarray格式并归一化后返回。 3. 配置模型 mmsegmentation支持的模型我们可以通过它的配置文件来配置。通过制定不同的配置文件,我们可以配置不同的网络模型、优化器、学习率策略、训练参数等。对于自己的数据集,我们需要在配置文件中指定类别数、输入图像大小等相关参数。 选择具体的网络模型需要根据自己的数据集大小选择。如果数据集较小,我们可以选择较小的模型,否则可以考虑选择较大的模型,如DeepLabV3+、FCN等。 4. 开始训练 当数据集注册和模型配置完成后,我们可以开始训练自己的数据集。可以通过mmseg中提供的工具进行训练,比如: ``` python tools/train.py ${CONFIG_FILE} ``` 其中,${CONFIG_FILE}是指定的配置文件路径。训练过程中可以通过设置检查点、学习率、优化器等参数来调整模型的训练效果。 5. 验证和测试 训练完成后,我们可以通过mmseg提供的工具进行模型验证和测试,比如: ``` # 验证 python tools/test.py ${CONFIG_FILE} ${CHECKPOINT_FILE} --eval mIoU # 测试 python tools/test.py ${CONFIG_FILE} ${CHECKPOINT_FILE} --out result.pkl ``` 其中,${CHECKPOINT_FILE}是训练过程中保存的模型检查点文件路径,验证和测试的输出结果也会保存在指定路径中。在测试阶段,我们可以查看模型的输出结果,检查预测效果是否符合预期。 以上就是使用mmsegmentation训练自己的数据集的主要步骤,需要注意的是,这只是一个大致的过程,具体操作会根据自己的数据集和需求有所不同。同时也需要在训练过程中多多尝试和调整,来达到更好的训练效果。
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值