Windows搭建Darknet框架环境-Yolov4-GPU

第一步:下载源码

darknet的源码官方链接:https://github.com/AlexeyAB/darknet

我已经搬移到gitee:lishan/darknet

源码项目中有介绍如何在windows上安装darknet

————————————————————————————————————————

Requirements for Windows, Linux and macOS

————————————————————————————————————————

第二步:下载必要软件工具

下载CMake、CUDA、Opencv、cuDNN、Visual Studio 2015/1217/2019

使用GPU的前提:保证自己的显卡算力大于等于3.0,否则只能用CPU检测,无需下载CUDA和cuDNN

算力查询网站:CUDA GPUs | NVIDIA Developer

RTX3060的算力在官网查不到,但其算力为8.6

第三步:安装所有依赖并编译darknet

安装Cuda、cuDNN

注意Cuda和CuDNN的版本对应关系

安装cuda和cudnn可参考我的另一篇文章:笔记本RTX3060+Win10_x86_64位搭建Pytorch深度学习本地环境_乐观的lishan的博客-CSDN博客

————————————————————————

cuda10.2、11.0、11.1、11.2 <——>cudnn8.1.0

cuda10.2、11.0、11.1、11.2 <——>cudnn8.1.1

cuda10.2 、11.x<——>cudnn8.2.0

cuda10.2 、11.x<——>cudnn8.2.1

cuda10.2 、11.4<——>cudnn8.2.2

cuda10.2 、11.4<——>cudnn8.2.4

————————————————————————

安装Cmake,下载链接

安装OpenCv,假设安装路径为 C:\opencv

新建系统环境变量OpenCV_DIR,值为:

C:\opencv\build\x64\vc14\lib

第三步:编译darknet

打开Cmake-gui,编译

Source code: -> darknet源码文件夹

Binaries -> 编译后输出二进制文件路径(即指定生成的darknet.exe位置)

Configure

Optional platform for generator: x64

Finish

如果没有设置opencv环境变量,或者设置出错,则编译时会出现以下错误:

在cmake中重新指定opencv路径即可

如果出现其他错误,例如cuda出错,一样的操作,直接在cmake中更改对应的环境变量路径即可

重新configure即可

点击Generate

最后点击Generate右侧的Open Project按钮,使用VS 2015/2017/2019打开项目

选择release,x64,点击生成->生成解决方案

出现成功

 在darknet\build\darknet\x64\Release下找到darknet.exe即可

复制darknet\build\darknet\x64\Release下所有文件到darknet\build\darknet\x64文件夹下

下载yolov4.weights权值文件到darknet\build\darknet\x64文件夹下

yolov4.weights file 245 MB: yolov4.weights (Google-drive mirror yolov4.weights )

第四步:测试

通过cmd进入darknet\build\darknet\x64文件夹下

测试指定路径的图片

.\darknet detector test cfg/coco.data cfg/yolov4.cfg yolov4.weights -thresh 0.25

提示输入图片路径:Enter Image Path:

例如输入:data/dog.jpg

测试data文件夹的指定图片

加-ext_output参数可以在控制台显示输出边框坐标信息

.\darknet detector test cfg/coco.data cfg/yolov4.cfg yolov4.weights -ext_output dog.jpg

测试data文件夹视频xxx.mp4(需要自己准备test.mp4视频文件)

.\darknet detector demo cfg/coco.data cfg/yolov4.cfg yolov4.weights -ext_output test.mp4

测试本地摄像头视频

.\darknet detector demo cfg/coco.data cfg/yolov4.cfg yolov4.weights -c 0

测试网络视频

./darknet detector demo cfg/coco.data cfg/yolov4.cfg yolov4.weights http://192.168.0.80:8080/video?dummy=param.mjpg

  1. 其他测试命令如下:

    • Yolo v4 COCO - image: ./darknet detector test cfg/coco.data cfg/yolov4.cfg yolov4.weights -thresh 0.25

    • Output coordinates of objects: ./darknet detector test cfg/coco.data yolov4.cfg yolov4.weights -ext_output dog.jpg

    • Yolo v4 COCO - video: ./darknet detector demo cfg/coco.data cfg/yolov4.cfg yolov4.weights -ext_output test.mp4

    • Yolo v4 COCO - WebCam 0: ./darknet detector demo cfg/coco.data cfg/yolov4.cfg yolov4.weights -c 0

    • Yolo v4 COCO for net-videocam - Smart WebCam: ./darknet detector demo cfg/coco.data cfg/yolov4.cfg yolov4.weights http://192.168.0.80:8080/video?dummy=param.mjpg

    • Yolo v4 - save result videofile res.avi: ./darknet detector demo cfg/coco.data cfg/yolov4.cfg yolov4.weights test.mp4 -out_filename res.avi

    • Yolo v3 Tiny COCO - video: ./darknet detector demo cfg/coco.data cfg/yolov3-tiny.cfg yolov3-tiny.weights test.mp4

    • JSON and MJPEG server that allows multiple connections from your soft or Web-browser ip-address:8070 and 8090: ./darknet detector demo ./cfg/coco.data ./cfg/yolov3.cfg ./yolov3.weights test50.mp4 -json_port 8070 -mjpeg_port 8090 -ext_output

    • Yolo v3 Tiny on GPU #1: ./darknet detector demo cfg/coco.data cfg/yolov3-tiny.cfg yolov3-tiny.weights -i 1 test.mp4

    • Alternative method Yolo v3 COCO - image: ./darknet detect cfg/yolov4.cfg yolov4.weights -i 0 -thresh 0.25

    • Train on Amazon EC2, to see mAP & Loss-chart using URL like: http://ec2-35-160-228-91.us-west-2.compute.amazonaws.com:8090 in the Chrome/Firefox (Darknet should be compiled with OpenCV): ./darknet detector train cfg/coco.data yolov4.cfg yolov4.conv.137 -dont_show -mjpeg_port 8090 -map

    • 186 MB Yolo9000 - image: ./darknet detector test cfg/combine9k.data cfg/yolo9000.cfg yolo9000.weights

    • Remember to put data/9k.tree and data/coco9k.map under the same folder of your app if you use the cpp api to build an app

    • To process a list of images data/train.txt and save results of detection to result.json file use: ./darknet detector test cfg/coco.data cfg/yolov4.cfg yolov4.weights -ext_output -dont_show -out result.json < data/train.txt

    • To process a list of images data/train.txt and save results of detection to result.txt use: ./darknet detector test cfg/coco.data cfg/yolov4.cfg yolov4.weights -dont_show -ext_output < data/train.txt > result.txt

    • Pseudo-labelling - to process a list of images data/new_train.txt and save results of detection in Yolo training format for each image as label <image_name>.txt (in this way you can increase the amount of training data) use: ./darknet detector test cfg/coco.data cfg/yolov4.cfg yolov4.weights -thresh 0.25 -dont_show -save_labels < data/new_train.txt

    • To calculate anchors: ./darknet detector calc_anchors data/obj.data -num_of_clusters 9 -width 416 -height 416

    • To check accuracy mAP@IoU=50: ./darknet detector map data/obj.data yolo-obj.cfg backup\yolo-obj_7000.weights

    • To check accuracy mAP@IoU=75: ./darknet detector map data/obj.data yolo-obj.cfg backup\yolo-obj_7000.weights -iou_thresh 0.75

### 回答1: b'yolov4环境搭建pytorch(gpu)'指的是在使用pytorch深度学习框架并使用GPU计算的情况下,配置yolov4目标检测模型的开发环境。这可以通过在计算机上安装pytorch和CUDA加速库来实现。同时,还需要下载yolov4的代码和权重文件,并对其进行配置和调试,确保能够成功使用GPU进行模型训练和测试。 ### 回答2: 步骤一:安装依赖库 在进行yolov4环境搭建之前,我们需要先安装以下依赖库: * PyTorch:安装命令为:pip install torch torchvision torchaudio -f https://download.pytorch.org/whl/cu111/torch_stable.html * NumPy:安装命令为:pip install numpy * OpenCV:安装命令为:pip install opencv-python * Cython:安装命令为:pip install cython * Matplotlib:安装命令为:pip install matplotlib 步骤二:下载YOLOv4代码 在安装完以上依赖库后,我们需要下载YOLOv4的代码。可以从GitHub上进行下载,将其解压缩到本地的项目目录中即可使用。 步骤三:编译和安装YOLOv4 在安装好依赖库和下载好YOLOv4代码后,我们需要执行以下步骤进行编译和安装。 1.进入yolo文件夹,执行以下命令: * python setup.py build_ext(执行此命令会创建一个 build文件夹) * python setup.py install(执行此命令之后,会将yolo安装到系统中) 2. 下载yolov4.weights文件,将其保存在YOLOv4目录下的weights文件夹中。 步骤四:测试YOLOv4 在安装完毕之后,我们需要进行一些测试,以确保YOLOv4的可用性。 1. 进入YOLOv4目录,执行以下命令: * python detection.py --image-path data/samples/zidane.jpg --cfg cfg/yolov4.cfg --weights weights/yolov4.weights 2. 如果运行成功,将会看到zidane.jpg的检测结果。 以上是关于yolov4环境搭建的步骤解析。需要注意的是,搭建过程中可能会遭遇一些错误和问题,需要根据实际情况进行调整。此外,安装过程需要一定的技术基础,对于没有经验的初学者来说,可能需要较长时间的摸索和学习。 ### 回答3: yolov4是一种高效的目标检测算法,对于需要进行大规模物体识别的场景非常有用。为了更好地应用yolov4算法,我们需要在本地搭建pytorch(gpu)实验环境以进行训练与验证。 以下是yolov4环境搭建pytorch(gpu)的步骤: 步骤1:安装Anaconda 在Windows系统下,我们可以前往anaconda官网下载对应安装包并进行安装,安装完成后会自动配置好conda的环境。 步骤2:创建Python虚拟环境 通过conda创建一个Python虚拟环境,并安装pytorch及其他必要的依赖库: conda create -n yolov4 python=3.7 conda activate yolov4 conda install pytorch torchvision cudatoolkit=10.2 -c pytorch pip install opencv-python 步骤3:下载YOLOv4-tiny模型权重 可以在Github上下载yolov4-tiny的模型权重,将下载好的权重文件放在项目代码的根目录下。 步骤4:编写yolov4算法实现代码 通过pytorch编写代码实现yolov4算法,并利用GPU进行加速。 步骤5:使用自己的数据集进行模型训练 将自己的数据集按预设格式进行制作,然后通过上面搭建好的环境进行模型训练,并保存模型。 步骤6:使用模型进行目标检测 使用已经训练好的模型进行目标检测,根据需要进行调整和优化。最后,可以将模型集成到自己的应用程序中进行实际应用。 总之,yolov4环境搭建pytorch(gpu)需要注意的一些事项,包括安装Anaconda、创建Python虚拟环境、下载yolov4-tiny的模型权重、编写实现代码、使用自己的数据集进行模型训练和使用模型进行目标检测。只有完成以上步骤,我们才能在本地或服务器上更好地应用yolov4算法
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

乐观的lishan

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值