openmmlab-环境配置

1.创建虚拟环境,添加jupyter虚拟环境

conda create -n mmo python=3.7
conda activate mmo
conda install ipykernel
conda install nb_conda

p.s. 也是从这个地方发现之前的文章配的内核有问题,开始用这个方法配ju虚拟环境,还不错没啥问题了!
也可顺手升级一下pip至最新

python -m pip install --upgrade pip

2.装对应版本的torch,cuda110->pytorch1.7.0

conda install pytorch==1.7.0 torchvision==0.8.0 torchaudio==0.7.0 cudatoolkit=11.0 -c pytorch

3.装mmcv

pip install mmcv-full==1.3.17 -f https://download.openmmlab.com/mmcv/dist/cu110/torch1.7.0/index.html

mmcv版本选择:
https://mmcv.readthedocs.io/en/latest/get_started/installation.html
4.装mim

pip install openmim

测试:

!mim install mmdet==2.22.0
!mim search mmdet --model 'mask r-cnn'
!mim download mmdet --config mask_rcnn_r50_fpn_2x_coco --dest .

5.装mmdet

mim install mmdet==2.22.0

测试Demo:

import os
os.environ['CUDA_VISIBLE_DEVICES']='5'
from mmdet.apis import init_detector,inference_detector,show_result_pyplot
config_file = 'mask_rcnn_r50_fpn_2x_coco.py'
check_point_file = 'mask_rcnn_r50_fpn_2x_coco_bbox_mAP-0.392__segm_mAP-0.354_20200505_003907-3e542a40.pth'
model = init_detector(config_file,check_point_file)
print(model)
Demo='demo.jpeg'
result = inference_detector(model,Demo)
show_result_pyplot(model,Demo,result)

显示那张神椅就大功告成了!剩下的就是去搞数据训自己的模型了!

6.装mmocr
mmocr版本选择:
https://mmocr.readthedocs.io/en/latest/install.html
这里选择0.5.0
https://github.com/open-mmlab/mmocr/archive/refs/tags/v0.5.0.zip
直接github下载然后upload离线安装

cd mmocr0.5.0
pip install -r requirements.txt
pip install -v -e .
export PYTHONPATH=$(pwd):$PYTHONPATH

测试Demo:

from mmocr.utils.ocr import MMOCR
ocr = MMOCR()

results = ocr.readtext('demo/demo_text_ocr.jpg', details=True,print_result=True, imshow=False)

Ubuntu暂时还没弄懂怎么在jupyter显示图片展示,可以把imshow改为False,出现text识别就算大功告成!

今天暂时到这里吧,显示图片这个问题搞的opencv 删了又装,结果ocr又识别不了了,又得重装,特此记录,这次整理连写带装花了1个多小时,比第一次装mmd搞了一整个晚上快多了(就是昨天…)
赶紧睡觉去了,配环境搞的人都麻了,淦!2022-06-12 01:22:25

参考:SJTU open-mmlab 公开课B站,有手把手教芒果检测!

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
本文将以语义分割为例,介绍如何使用OpenMMLab框架进行实战操作。 一、准备工作 1.安装OpenMMLab框架 可以按照官网提供的安装方式进行安装,也可以使用pip install mmcv-full安装mmcv-full,然后再使用pip install openmmlab安装OpenMMLab。 2.下载数据集 本文使用的是PASCAL VOC2012数据集,可以在官网上下载。 3.配置环境变量 为了方便使用,可以将数据集路径添加到环境变量中,使用时直接调用。 二、数据预处理 1.将数据集转换为COCO格式 由于OpenMMLab使用的是COCO格式的数据集,因此需要将PASCAL VOC格式的数据集转换为COCO格式。可以使用官方提供的脚本进行转换。 python tools/datasets/voc_convert.py --voc-dir /path/to/voc --json-dir /path/to/save/json 其中,--voc-dir表示PASCAL VOC格式的数据集路径,--json-dir表示将要保存COCO格式的数据集路径。 2.数据增强 使用数据增强可以使模型更具有泛化能力,常用的增强方法包括随机旋转、随机裁剪、随机翻转等。可以使用OpenMMLab提供的数据增强模块进行处理。 from mmcv import Config from mmcv.runner import obj_from_dict cfg = Config.fromfile('configs/deeplabv3_r50-d8_512x512_40k_voc12aug.py') train_pipeline = obj_from_dict(cfg.data.train.pipeline) 其中,train_pipeline为数据增强的流程,可以根据需要进行修改。 三、模型训练 使用OpenMMLab提供的训练脚本进行训练。 python tools/train.py ${CONFIG_FILE} 其中,${CONFIG_FILE}为配置文件路径,可以在configs文件夹中选择合适的配置文件进行训练。 四、模型测试 使用OpenMMLab提供的测试脚本进行测试。 python tools/test.py ${CONFIG_FILE} ${CHECKPOINT_FILE} [--out ${RESULT_FILE}] [--eval ${EVAL_METRICS}] [--show] 其中,${CONFIG_FILE}为配置文件路径,${CHECKPOINT_FILE}为训练好的模型文件路径,${RESULT_FILE}为结果保存路径,${EVAL_METRICS}为评价指标,--show表示显示结果。 五、模型部署 使用OpenMMLab提供的导出模型脚本将模型导出为ONNX格式或TorchScript格式,以便在C++或Python中使用。 python tools/export_model.py ${CONFIG_FILE} ${CHECKPOINT_FILE} ${EXPORT_TYPE} [--out ${EXPORT_FILE}] [--input-img ${INPUT_IMG}] [--shape ${INPUT_SHAPE}] 其中,${EXPORT_TYPE}为导出模型格式,可以选择onnx或torchscript,${EXPORT_FILE}为导出模型路径,${INPUT_IMG}为输入图片路径,${INPUT_SHAPE}为输入图片大小。 六、总结 通过以上实战操作,我们可以使用OpenMMLab框架进行语义分割模型的训练、测试和部署。OpenMMLab框架提供了丰富的模型和数据增强模块,使得模型训练更加便捷。同时,OpenMMLab框架也支持模型导出为ONNX或TorchScript格式,方便在C++或Python中使用。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值