YOLOv8环境安装以及在pycharm上运行Windows版

        最近YOLO系列迎来了又一次翻天覆地的变革,YOLOv8问世了。因为v8刚刚发行不久,所以很多人对于YOLOv8的环境配置以及运行存在各种各样的问题,本菜鸡在YOLOv8官网潜伏一天以及在b站查看相关视频之后,终于成功运行,接下来我将给大家分享具体步骤。

1.YOLOv8的强大功能简介

YOLOv8的发行作者也是发行YOLOv5的大佬,v5系列本人在研一上学期已经亲测过,检测结果非常哇塞。官网给出了v8的运行速度和精度等折线图同其余版本进行比较,很明显,v8是完全碾压其余版本的,甚至v8的n模型已经可以匹敌v5的s模型。

相比其余系列,v8更NB的是增加了segment和pose功能。实例分割任务一般是由MaskRCNN网络来完成,但是MaskRCNN由于网络大参数多计算量大,所以掩膜的实时性存在一定的局限性。v8的出现犹如救世主一般降临人间,所以有segment需求的大佬们要对v8引起重视了。夸完了,那就开整!

 2.YOLOv8环境配置

YOLOv8可以GitHub的网址上拉下来,网址放在此处-->ultralytics/ultralytics: NEW - YOLOv8 🚀 in PyTorch > ONNX > CoreML > TFLite (github.com)

代码文件拉下来以后,需要对pycharm的环境进行配置,配置步骤如下:

a)需要下载nivdia的cuda,cudnn包以及pytorch等。

cuda下载网址:https://developer.nvidia.cn/zh-cn/cuda-toolkit

cudnn下载:Log in | NVIDIA Developer

pytorch下载:PyTorch 注意:torch尽量下载GPU版本:

b)用pycharm打开YOLOv8文件夹,下载依赖项,依赖项已经以作者的名字来封装好,所以直接在终端输入:pip install ultralytics,安装好之后会默认安装的cpu版本的torch,所以这里需要卸载掉cpu版本,pip uninstall torch,然后安装GPU版本的torch,安装命令就是上图中的pip3.....cu117

c)环境安装好之后,就可以运行YOLOv8的各个功能模块,比如运行检测模块的预测功能:

yolo task=detect mode=predict  model=yolov8n.pt conf=0.25 source='ultralytics/assets/bus.jpg'

使用别的功能的命令也以此类推即可。运行之后会在example文件下生成run文件里生成结果

3. 分割功能测试

补充:上次没有写到YOLOv8最强大的,也是别的YOLO系列没有的分割功能(segment),今天运行了一下这个功能,感觉还是非常不错的,这里给大家把单张图片运行的结果以及视频运行时截取一张图片放上来供大家参考分割效果。

单张图片分割效果如下

 截取视频流中分割的一帧效果如下:

 本机对于自己的视频数据集运行分割功能时的命令如下,供大家参考:

yolo segment predict model=yolov8n-seg.pt source='D:\github\ultralytics-main\城市街道 - 1.城市街道(Av412700841,P1)

  • 8
    点赞
  • 52
    收藏
    觉得还不错? 一键收藏
  • 7
    评论
基于YOLOv8的车辆+车牌检测系统源码(部署教程+训练好的模型+各项评估指标曲线).zip 平均准确率:0.96 类别:car、plate 【资源介绍】 1、ultralytics-main ultralytics-main为YOLOv8源代码,里面涵盖基于yolov8分类、目标检测额、姿态估计、图像分割四部分代码,我们使用的是detect部分,也就是目标检测代码 2、搭建环境 安装anaconda 和 pycharm windows系统、mac系统、Linux系统都适配 在anaconda中新建一个新的envs虚拟空间(可以参考博客来),命令窗口执行:conda create -n YOLOv8 python==3.8 创建完YOLOv8-GUI虚拟空间后,命令窗口执行:source activate YOLOv8 激活虚拟空间 然后就在YOLOv8虚拟空间内安装requirements.txt中的所有安装包,命令窗口执行:pip install -r requirements.txt 使用清华源安装更快 3、训练模型过程 进入到\ultralytics-main\ultralytics\yolo\v8\detect\文件夹下,datasets即为我们需要准备好的数据集,训练其他模型同理。 data文件夹下的bicycle.yaml文件为数据集配置文件,该文件为本人训练自行车检测模型时创建,训练其他模型,可自行创建。博文有介绍https://blog.csdn.net/DeepLearning_?spm=1011.2415.3001.5343 train.py中238行,修改为data = cfg.data or './bicycle.yaml' # or yolo.ClassificationDataset("mnist") 237行修改自己使用的预训练模型 若自己有显卡,修改239行,如我有四张显卡,即改成args = dict(model=model, data=data, device=”0,1,2,3“) 以上配置完成后运行train.py开始训练模型,训练完毕后会在runs/detect/文件夹下生成train*文件夹,里面包含模型和评估指标等 4、推理测试 训练好模型,打开predict.py,修改87行,model = cfg.model or 'yolov8n.pt',把yolov8n.pt换成我们刚才训练完生成的模型路径(在\ultralytics-main\ultralytics\yolo\v8\detect\runs\detect文件夹下),待测试的图片或者视频存放于ultralytics\ultralytics\assets文件夹, 运行predict.py即可,检测结果会在runs/detect/train文件夹下生成。
基于YOLOv8的各种瓶子识别检测系统源码(部署教程+训练好的模型+各项评估指标曲线).zip 平均准确率:0.95 类别:bottle 【资源介绍】 1、ultralytics-main ultralytics-main为YOLOv8源代码,里面涵盖基于yolov8分类、目标检测额、姿态估计、图像分割四部分代码,我们使用的是detect部分,也就是目标检测代码 2、搭建环境 安装anaconda 和 pycharm windows系统、mac系统、Linux系统都适配 在anaconda中新建一个新的envs虚拟空间(可以参考博客来),命令窗口执行:conda create -n YOLOv8 python==3.8 创建完YOLOv8-GUI虚拟空间后,命令窗口执行:source activate YOLOv8 激活虚拟空间 然后就在YOLOv8虚拟空间内安装requirements.txt中的所有安装包,命令窗口执行:pip install -r requirements.txt 使用清华源安装更快 3、训练模型过程 进入到\ultralytics-main\ultralytics\yolo\v8\detect\文件夹下,datasets即为我们需要准备好的数据集,训练其他模型同理。 data文件夹下的bicycle.yaml文件为数据集配置文件,该文件为本人训练自行车检测模型时创建,训练其他模型,可自行创建。博文有介绍https://blog.csdn.net/DeepLearning_?spm=1011.2415.3001.5343 train.py中238行,修改为data = cfg.data or './bicycle.yaml' # or yolo.ClassificationDataset("mnist") 237行修改自己使用的预训练模型 若自己有显卡,修改239行,如我有四张显卡,即改成args = dict(model=model, data=data, device=”0,1,2,3“) 以上配置完成后运行train.py开始训练模型,训练完毕后会在runs/detect/文件夹下生成train*文件夹,里面包含模型和评估指标等 4、推理测试 训练好模型,打开predict.py,修改87行,model = cfg.model or 'yolov8n.pt',把yolov8n.pt换成我们刚才训练完生成的模型路径(在\ultralytics-main\ultralytics\yolo\v8\detect\runs\detect文件夹下),待测试的图片或者视频存放于ultralytics\ultralytics\assets文件夹, 运行predict.py即可,检测结果会在runs/detect/train文件夹下生成。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值