mmlab的数据加载的过程:

mmlab项目里面代码复用性和解耦性比较高,代码调用方便,但是有的地方可读性不是很好。关于他的网络结构arch其实一般都还好,比较清晰简单。就是关于 数据加载和数据处理、还有这个loss 的计算和优化过程,一般进去看麻烦一些。主要是在这个restore里面看这些宏观上的东西。

这里讲下 盲超分和非盲超分 在数据处理过程的不同:

1 你如果会看数据处理地方的配置文件的话,就很清晰,也不用你自己debug进去一个一个看:

比如 在basicvsr:

这里截取的一部分训练数据集的处理代码:你看从文件夹中加载,盲超分就是只加载出一个gt

而非盲超分就是两个都加载。。还有通道格式也介绍的挺详细的

train_pipeline = [
    dict(
        type='LoadImageFromFileList',
        io_backend='disk',
        key='lq',
        channel_order='rgb'),
    dict(
        type='LoadImageFromFileList',
        io_backend='disk',
        key='gt',
        channel_order='rgb'),

real-basicvsr里面的就是:

dict(
    type='LoadImageFromFileList',
    io_backend='disk',
    key='gt',
    channel_order='rgb'),

然后实际代码中的数据处理地方都在这个runner 我觉得这是一个训练容器一样的。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
本文将以语义分割为例,介绍如何使用OpenMMLab框架进行实战操作。 一、准备工作 1.安装OpenMMLab框架 可以按照官网提供的安装方式进行安装,也可以使用pip install mmcv-full安装mmcv-full,然后再使用pip install openmmlab安装OpenMMLab。 2.下数据集 本文使用的是PASCAL VOC2012数据集,可以在官网上下。 3.配置环境变量 为了方便使用,可以将数据集路径添到环境变量中,使用时直接调用。 二、数据预处理 1.将数据集转换为COCO格式 由于OpenMMLab使用的是COCO格式的数据集,因此需要将PASCAL VOC格式的数据集转换为COCO格式。可以使用官方提供的脚本进行转换。 python tools/datasets/voc_convert.py --voc-dir /path/to/voc --json-dir /path/to/save/json 其中,--voc-dir表示PASCAL VOC格式的数据集路径,--json-dir表示将要保存COCO格式的数据集路径。 2.数据增强 使用数据增强可以使模型更具有泛化能力,常用的增强方法包括随机旋转、随机裁剪、随机翻转等。可以使用OpenMMLab提供的数据增强模块进行处理。 from mmcv import Config from mmcv.runner import obj_from_dict cfg = Config.fromfile('configs/deeplabv3_r50-d8_512x512_40k_voc12aug.py') train_pipeline = obj_from_dict(cfg.data.train.pipeline) 其中,train_pipeline为数据增强的流程,可以根据需要进行修改。 三、模型训练 使用OpenMMLab提供的训练脚本进行训练。 python tools/train.py ${CONFIG_FILE} 其中,${CONFIG_FILE}为配置文件路径,可以在configs文件夹中选择合适的配置文件进行训练。 四、模型测试 使用OpenMMLab提供的测试脚本进行测试。 python tools/test.py ${CONFIG_FILE} ${CHECKPOINT_FILE} [--out ${RESULT_FILE}] [--eval ${EVAL_METRICS}] [--show] 其中,${CONFIG_FILE}为配置文件路径,${CHECKPOINT_FILE}为训练好的模型文件路径,${RESULT_FILE}为结果保存路径,${EVAL_METRICS}为评价指标,--show表示显示结果。 五、模型部署 使用OpenMMLab提供的导出模型脚本将模型导出为ONNX格式或TorchScript格式,以便在C++或Python中使用。 python tools/export_model.py ${CONFIG_FILE} ${CHECKPOINT_FILE} ${EXPORT_TYPE} [--out ${EXPORT_FILE}] [--input-img ${INPUT_IMG}] [--shape ${INPUT_SHAPE}] 其中,${EXPORT_TYPE}为导出模型格式,可以选择onnx或torchscript,${EXPORT_FILE}为导出模型路径,${INPUT_IMG}为输入图片路径,${INPUT_SHAPE}为输入图片大小。 六、总结 通过以上实战操作,我们可以使用OpenMMLab框架进行语义分割模型的训练、测试和部署。OpenMMLab框架提供了丰富的模型和数据增强模块,使得模型训练更便捷。同时,OpenMMLab框架也支持模型导出为ONNX或TorchScript格式,方便在C++或Python中使用。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值