YOLOV5在python上的实现全过程说明,引用来自“炮哥带你学”博主。

使用前的工作–配置各种环境

详细说明:https://blog.csdn.net/didiaopao/article/details/119787139

首先安装Anaconda:用来给python部署环境envs。当然直接从prcharm里面进行自建环境也行,但是需要注意pip安装默认安装在C盘(一般不推荐把环境放在C,因为随着你的使用,环境将越来越大),需要自己更改默认安装地址。

使用Anaconda的好处是能够自己部署环境,且各种库安装方便。部署之后呢,即使通过pycharm的pip安装,也能将各种库安装到Anaconda下。

其他优点就不再叙述,跟着学就完了。

使用目标检测,需要用到pytroch库,驱动的版本对应要选择合适的pytorch版本。

现在目前阶段清华源镜像不怎么好用了,推荐大家换其他的镜像源,比如北京外国语大学。

制作数据集

详细说明:https://blog.csdn.net/didiaopao/article/details/119808973

在使用Imagelabel的时候,一定要注意的是在某张图像的上某个车辆它位于图像的边缘上,那你在打标签的时候千万不能让标签框接触到图像的边界,不然到时候你训练的时候就会报错。

如果不想进行手动打标签,那么你就需要下载别人开源的数据集。

YOLOv5目前的标签格式是txt,其中每个txt文件的第一列是类别序号,0、1、2、3。。。。代表你之前在打标签时候的类别,比如0就代表着car,1就代表着bus等。基本上最后一个文件就是classes.txt,里面就是类别。不管是自己的还是别人的数据集,如果没有这个文件,你要搞明白标签中数字对应的类别,而且顺序千万不能错。

所以转换或者后期对标签进行处理的时候不仅要注意第一列的标签,而且后续几个坐标是boundingboxes的左上角、右下角的坐标还是中心坐标加上宽和高,这些需要自己搞清楚,不然转换过去也是错误的boundingboxes。

其中转换的说明:https://blog.csdn.net/didiaopao/article/details/120022845
这只是一小部分,现在开源的格式有很多种,你需要了解不同数据集的不同说明,然后按照你所用算法的需求进行转换。

开始使用YOLOv5

开始训练之前,需要将数据集按照YOLOv5模型的加载函数正确存放,不然你需要自己修改数据加载函数。具体说明:https://blog.csdn.net/didiaopao/article/details/120022845

设置好后,按照说明:https://blog.csdn.net/didiaopao/article/details/119954291
进行操作,这里其实没有什么需要注意的地方,在配置各种安装包的时候可能会报错,那么你就需要各种百度,各种CSDN,其中需要注意的是:一定要安装C++编译,不然有一个库就无法安装上去,而且会报大一堆错误,具体名字叫什么我忘了,它的错误里面会提到C++。针对安装C++哪些东西,网上都有教程。

其实参照 “炮哥带你学”专栏,一步步的操作,就能上手YOLOv5了,基于python做目标检测算法的延伸和其他应用是优于matlab的,所以我才写出来这个,给新入坑的小伙伴做一些说明。

如果有问题,欢迎大家留言交流,身为学生党的我看到就会回复,可能回复的不及时,非常抱歉。

  • 5
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论
好的,那我们开始吧! 首先,YOLO(You Only Look Once)是一种基于深度习的物体检测算法,它通过卷积神经网络直接在图像上完成物体检测和定位,具有速度快、精度高等优点,因此在实际应用中得到了广泛的应用。 YOLOv5YOLO系列最新的版本,相对于之前的版本,它在网络结构、数据增强、习策略等方面进行了优化,提高了检测的精度和速度。下面我们来习一下YOLOv5的使用。 1. 安装YOLOv5 YOLOv5可以通过GitHub上的开源项目进行下载和安装,具体步骤如下: 1)克隆YOLOv5项目到本地 ``` git clone https://github.com/ultralytics/yolov5.git ``` 2)安装相关依赖 ``` pip install -r requirements.txt ``` 2. 训练自己的数据集 训练一个物体检测模型需要准备好标注好的数据集,然后通过训练模型来习如何检测这些物体。YOLOv5支持各种不同的数据格式,包括COCO、Pascal VOC等。 在准备好数据集之后,可以通过以下命令来训练模型: ``` python train.py --img 640 --batch 16 --epochs 50 --data coco.yaml --cfg models/yolov5s.yaml --weights '' --name yolov5s_results ``` 其中,--img指定输入图像大小,--batch指定批量大小,--epochs指定训练轮数,--data指定数据集的配置文件,--cfg指定模型的配置文件,--weights指定预训练模型的权重,--name指定训练结果保存的文件夹名称。 3. 测试模型 训练完成之后,可以使用训练好的模型对新的图像进行检测。可以使用以下命令来进行测试: ``` python detect.py --source 0 --weights yolov5s_results/weights/best.pt --conf 0.25 ``` 其中,--source指定输入图像或视频的路径,0表示使用摄像头输入,--weights指定训练好的模型权重,--conf指定置信度的阈值,低于这个阈值的检测结果将被忽略。 4. 导出模型 最后,可以将训练好的模型导出到ONNX格式或TorchScript格式,以便在其他平台上使用。可以使用以下命令来导出模型: ``` python models/export.py --weights yolov5s_results/weights/best.pt --img-size 640 --batch-size 1 ``` 其中,--weights指定训练好的模型权重,--img-size指定输入图像大小,--batch-size指定批量大小。 这就是使用YOLOv5进行物体检测的基本流程。当然,在实际应用中,还需要根据具体情况进行参数调整和优化。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

爱钓鱼的小点点

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值