【YOLOV8训练检测模型(window+anaconda环境安装+部署)】

简述

YOLOv8是Ultralytics开发的一种sota模型(哔哩吧啦省略一堆字)
本文主要简述YOLOv8 pytorch环境部署以及其如何使用命令行进行便捷训练的方法(以目标检测为例,后续有空再补充一下)

https://github.com/ultralytics/ultralytics # yolov8 github源码

1.创建conda虚拟环境

该步骤省略了anaconda的下载与安装,具体可以去查询其他博客大佬的文章

创建自定义命名的conda环境

win+r打开终端命令窗口,然后输入以下命令行创建环境
your-env-name: 自定义的环境名称
python=x.x: 使用的python版本

conda create -n your-env-name python=x.x

创建完成后,查看anaconda环境列表,刚才创建的环境是否在列表中

conda env list

激活环境&删除环境

创建环境后就可以进行激活环境,在虚拟环境中进行配置;当然创建错了也可以删除后进行重新创建

activate your-env-name #激活环境
remove -n your-env-name -all # 删除环境

2. 配置pytorch环境(GPU环境)

YOLOv8源码页面介绍有阐述,使用pip install ultralytics即可使用,但是本人在直接进行安装时,配置pytorch库出现超时问题,且pytorch库未必会适合你当前的使用环境。
该章节主要解决pytorch的配置问题,不使用指令进行下载pytorch。

查看显卡驱动版本

在cmd终端命令窗口中输入以下指令,查看左上角CUDA Version的打印信息,我这里是11.1版本

nvidia-smi

英伟达
如果未安装CUDA驱动的,可以根据Driver Version信息去NVIDA官网安装驱动
在这里插入图片描述

安装pytorch

pytorch版本查询页面,查看与自己的NVIDA Version相匹配的安装指令,从中查看匹配的pytorchtorchvision的版本号

如下图所示可以看到Linux and Window环境下CUDA 11.1,所对应的pytorch版本是1.9.1,torchvision版本是0.10.1
在这里插入图片描述

进入pytorch官网安装页面
找到对应的pytorch和torchvision的安装包(cp代表python版本,如果其中一个文件找不到对应版本,则重复上一步骤查询可匹配的其他版本)
在这里插入图片描述在这里插入图片描述

下载完后把压缩包放到喜欢的路径下
在cmd终端命令窗口上,激活配置环境,并使用pip install进行配置

pip install torch-1.9.1+cu111-cp38-cp38-win_amd64.whl
pip install torchvision-0.10.1+cu111-cp38-cp38-win_amd64.whl

3.Ultralytics库配置

按照源码介绍,输入命令进行安装

pip install ultralytics

至此,环境配置已经完成了,剩下看环境运行缺什么就安装什么就好了,当然,作者在源码中也添加了配置清单,下载源码进行解压后,使用cd指令进入源码路径,使用以下命令进行配置

pip install -r requirements.txt

4. 模型训练

准备工作:数据集准备 + 数据集yaml描述文件 + v8模型yaml描述文件 + 预训练权重,除数据集外其余文件都放在同一文件夹中(方便处理,如果不适合在下面操作中补充文件绝对路径即可)

预训练模型权重

网络好的可以直接略过这里,后续步骤使用命令行操作时候,会自动下载权重,后续我想办法放一下权重文件(第一次写博客,有空再整一整)
如果下载好了yolov8n.pt模型,可以在终端窗口中进行以下步骤测试一下,成功后会在当前路径生成一个结果文件夹

activate your-env-name #激活环境
cd xxx #进入权重文件所在路径
yolo predict

数据集描述文件(以检测模型为例)

创建一个yaml文件(不会则创建txt文件后更改后缀成yaml),按以下内容填写
(当然,不用划分数据集也可以,调整路径即可,path不变,train和val指向同一文件夹,test可以空着)

# data path
path: 数据集路径(底下放置train、val、test等数据文件夹)
train:  train/images(path下训练数据集图片所在路径)
val: val/images(path下验证数据集图片所在路径)
test: test/images(path下测试数据集图片所在路径)

# classes num 类别数
nc: xx

#classes name
name:
 0: 'xxx'
 1: 'xxx'
 ...

开始训练

在训练之前可以查看一下yolo的配置参数有哪些,使用以下命令进行查看

yolo cfg

在终端中,可以使用以下命令进行训练:
任务:taskdetect、segment、pos
模式: modetrain、val、predict
模型: modelyolov8n.yaml、yolov8m.yaml、yolov8l.yaml、yolov8x.yaml 文件夹下只要有yolov8.yaml即可
输入大小: imgsz640、320、160
驱动:device0 、cpu

yolo task=detect mode=train model=yolov8x.yaml data=数据集.yaml batch=xx epochs=xx imgsz=xx device=xx

  • 16
    点赞
  • 38
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
基于YOLOv8的细胞检测计数系统源码(部署教程+训练好的模型+各项评估指标曲线).zip 平均准确率:0.98 类别:RBC、WBC、platelets 【资源介绍】 1、ultralytics-main ultralytics-main为YOLOv8代码,里面涵盖基于yolov8分类、目标检测额、姿态估计、图像分割四部分代码,我们使用的是detect部分,也就是目标检测代码 2、搭建环境 安装anaconda 和 pycharm windows系统、mac系统、Linux系统都适配 在anaconda中新建一个新的envs虚拟空间(可以参考博客来),命令窗口执行:conda create -n YOLOv8 python==3.8 创建完YOLOv8-GUI虚拟空间后,命令窗口执行:source activate YOLOv8 激活虚拟空间 然后就在YOLOv8虚拟空间内安装requirements.txt中的所有安装包,命令窗口执行:pip install -r requirements.txt 使用清华源安装更快 3、训练模型过程 进入到\ultralytics-main\ultralytics\yolo\v8\detect\文件夹下,datasets即为我们需要准备好的数据集训练其他模型同理。 data文件夹下的bicycle.yaml文件数据集配置文件,该文件为本人训练自行车检测模型时创建,训练其他模型,可自行创建。博文有介绍https://blog.csdn.net/DeepLearning_?spm=1011.2415.3001.5343 train.py中238行,修改为data = cfg.data or './bicycle.yaml' # or yolo.ClassificationDataset("mnist") 237行修改自己使用的预训练模型 若自己有显卡,修改239行,如我有四张显卡,即改成args = dict(model=model, data=data, device=”0,1,2,3“) 以上配置完成后运行train.py开始训练模型训练完毕后会在runs/detect/文件夹下生成train*文件夹,里面包含模型和评估指标等 4、推理测试 训练模型,打开predict.py,修改87行,model = cfg.model or 'yolov8n.pt',把yolov8n.pt换成我们刚才训练完生成的模型路径(在\ultralytics-main\ultralytics\yolo\v8\detect\runs\detect文件夹下),待测试的图片或者视频存放于ultralytics\ultralytics\assets文件夹, 运行predict.py即可,检测结果会在runs/detect/train文件夹下生成。
基于YOLOv8的车辆+车牌检测系统源码(部署教程+训练好的模型+各项评估指标曲线).zip 平均准确率:0.96 类别:car、plate 【资源介绍】 1、ultralytics-main ultralytics-main为YOLOv8代码,里面涵盖基于yolov8分类、目标检测额、姿态估计、图像分割四部分代码,我们使用的是detect部分,也就是目标检测代码 2、搭建环境 安装anaconda 和 pycharm windows系统、mac系统、Linux系统都适配 在anaconda中新建一个新的envs虚拟空间(可以参考博客来),命令窗口执行:conda create -n YOLOv8 python==3.8 创建完YOLOv8-GUI虚拟空间后,命令窗口执行:source activate YOLOv8 激活虚拟空间 然后就在YOLOv8虚拟空间内安装requirements.txt中的所有安装包,命令窗口执行:pip install -r requirements.txt 使用清华源安装更快 3、训练模型过程 进入到\ultralytics-main\ultralytics\yolo\v8\detect\文件夹下,datasets即为我们需要准备好的数据集训练其他模型同理。 data文件夹下的bicycle.yaml文件数据集配置文件,该文件为本人训练自行车检测模型时创建,训练其他模型,可自行创建。博文有介绍https://blog.csdn.net/DeepLearning_?spm=1011.2415.3001.5343 train.py中238行,修改为data = cfg.data or './bicycle.yaml' # or yolo.ClassificationDataset("mnist") 237行修改自己使用的预训练模型 若自己有显卡,修改239行,如我有四张显卡,即改成args = dict(model=model, data=data, device=”0,1,2,3“) 以上配置完成后运行train.py开始训练模型训练完毕后会在runs/detect/文件夹下生成train*文件夹,里面包含模型和评估指标等 4、推理测试 训练模型,打开predict.py,修改87行,model = cfg.model or 'yolov8n.pt',把yolov8n.pt换成我们刚才训练完生成的模型路径(在\ultralytics-main\ultralytics\yolo\v8\detect\runs\detect文件夹下),待测试的图片或者视频存放于ultralytics\ultralytics\assets文件夹, 运行predict.py即可,检测结果会在runs/detect/train文件夹下生成。
基于YOLOv8的自行车识别检测系统源码(部署教程+训练好的模型+各项评估指标曲线).zip 平均准确率:0.98 类别:“自行车” 【资源介绍】 1、ultralytics-main ultralytics-main为YOLOv8代码,里面涵盖基于yolov8分类、目标检测额、姿态估计、图像分割四部分代码,我们使用的是detect部分,也就是目标检测代码 2、搭建环境 安装anaconda 和 pycharm windows系统、mac系统、Linux系统都适配 在anaconda中新建一个新的envs虚拟空间(可以参考博客来),命令窗口执行:conda create -n YOLOv8 python==3.8 创建完YOLOv8-GUI虚拟空间后,命令窗口执行:source activate YOLOv8 激活虚拟空间 然后就在YOLOv8虚拟空间内安装requirements.txt中的所有安装包,命令窗口执行:pip install -r requirements.txt 使用清华源安装更快 3、训练模型过程 进入到\ultralytics-main\ultralytics\yolo\v8\detect\文件夹下,datasets即为我们需要准备好的数据集训练其他模型同理。 data文件夹下的bicycle.yaml文件数据集配置文件,该文件为本人训练自行车检测模型时创建,训练其他模型,可自行创建。博文有介绍https://blog.csdn.net/DeepLearning_?spm=1011.2415.3001.5343 train.py中238行,修改为data = cfg.data or './bicycle.yaml' # or yolo.ClassificationDataset("mnist") 237行修改自己使用的预训练模型 若自己有显卡,修改239行,如我有四张显卡,即改成args = dict(model=model, data=data, device=”0,1,2,3“) 以上配置完成后运行train.py开始训练模型训练完毕后会在runs/detect/文件夹下生成train*文件夹,里面包含模型和评估指标等 4、推理测试 训练模型,打开predict.py,修改87行,model = cfg.model or 'yolov8n.pt',把yolov8n.pt换成我们刚才训练完生成的模型路径(在\ultralytics-main\ultralytics\yolo\v8\detect\runs\detect文件夹下),待测试的图片或者视频存放于ultralytics\ultralytics\assets文件夹, 运行predict.py即可,检测结果会在runs/detect/train文件夹下生成。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值