Yolov5-6.0详细教程(一)下载与准备工作

一、项目测试

检查刚下载的代码能否正常运行。
解压yolov5-6.0.zip,
Anaconda创建一个python3.7.0环境命名为pytorch3.7,用pycharm打开yolov5-6.0右下角选择pytorch3.7,在pycharm的Terminal输入下面的代码安装所有依赖。

pip install -r requirements.txt

在命令行输入下面代码运行detect.py

python detect.py

出现下图运行成功,代码会先下载yolov5s.pt与训练模型,然后开始inference,成功后打开runs\detect\exp可以看到两张生成的预测图。
在这里插入图片描述

二、调用摄像头并显示

首先,打开utils/general.py文件
找到is_docker函数
在这里插入图片描述
将注释中的内容换到前面,下面是修改后的代码

def is_docker():
    # Is environment a Docker container?
    return Path('/.dockerenv').exists()

再运行python detect.py --source 0就可以看到实时的界面了,用自己训练好的模型也可以显示。

三、命令行运行

经验告诉我,最好使用命令行启动train.py或detect.py,如果需要改变超参数,直接传就行,千万不要修改代码,这是致命的,你不知道修改后会不会出问题,或者过一个月后再看,你已经忘记自己修改了哪些代码(本人惨痛经历),所以,坚持用以下方式启动你的yolov5

python detect.py

# 如果你要加载自己训练的模型,就在后面加上 --weights best.py
# 如果你要使用摄像头,就加上---source 0
python detect.py --source 0 --weights best.pt

以上只是detect.py的命令行启动方式,train.py的可能会传入更多的参数,不管如何,不要轻易修改源代码!

四、训练自己的模型

请看自己标注数据集训练基于pytorch3.7的yolov5手掌识别模型

  • 2
    点赞
  • 30
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Yolov5-6.0是一种目标检测算法,它是基于深度学习的YOLO(You Only Look Once)系列算法的最新版本。下面是对Yolov5-6.0源码的一些解析: 1. 网络结构:Yolov5-6.0采用了一种轻量级的网络结构,主要由一系列的卷积层、池化层和上采样层组成。整个网络结构可以根据输入图像的尺寸进行自适应调整,以适应不同的目标检测任务。 2. 特征提取:Yolov5-6.0使用了一种称为CSPDarknet的主干网络,它基于Darknet53网络进行了改进。CSPDarknet采用了一种跨阶段连接的结构,可以更好地保留图像的细节信息,并且减少了参数量和计算量。 3. 检测头:Yolov5-6.0使用了一种称为YOLOv5Head的检测头,它负责生成目标检测的预测结果。YOLOv5Head包括了一系列的卷积层和全连接层,用于提取特征并生成目标的类别、位置和置信度等信息。 4. 训练和推理:Yolov5-6.0提供了完整的训练和推理代码。在训练过程中,它使用了一种称为YOLOv5Loss的损失函数,用于计算目标检测的损失值,并通过反向传播算法更新网络参数。在推理过程中,Yolov5-6.0可以接受输入图像,并输出目标检测的结果,包括目标的位置、类别和置信度等信息。 总的来说,Yolov5-6.0是一种高效准确的目标检测算法,它通过设计轻量级的网络结构和使用先进的特征提取和检测头模块,实现了在目标检测任务上的优秀性能。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值