yolov5使用GPU

本文根据B站UP“我是土堆”视频教程整理,视频链接如下:
https://www.bilibili.com/video/BV1S5411X7FY?p=26&vd_source=5a88e37d241fe49a63a0ca57f11ba8d2

问题:

在使用yolov5进行目标识别的时候,只能使用CPU,网上查的到的方法是将device由默认改为自己电脑显卡的编号,我电脑显卡编号为1(显卡编号在“任务管理器-性能”中查看),改为如下:

parser.add_argument('--device', default='1', help='cuda device, i.e. 0 or 0,1,2,3 or cpu')

但我修改后运行,仍报错,如下:
在这里插入图片描述

问题原因:未安装pytorch GPU运行环境。

解决方法:重新安装pytorch GPU运行环境。

具体步骤:

1、先确定Cuda版本。

打开cmd窗口,输入:

nvidia-smi

即可查看Cuda版本,如下图所示:
在这里插入图片描述

2、打开Pytorch官网,选择低于Cuda版本的最高版本11.6,弹出了conda安装命令,选中conda按照命令并复制,如下图所示:

在这里插入图片描述

3、打开anaconda,激活需要安装pytorch的环境:

conda activate yolov5 #将yolov5替换为你创建的虚拟环境名称

4、激活需要安装pytorch的环境后,粘贴conda安装命令,先不回车,将后面的下载通道改为国内镜像,如下代码所示,否则安装时下载会很慢。

使用清华镜像安装cudatoolkit
conda install cudatoolkit=11.6 -c https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main
使用清华镜像安装pytorch torchvision torchaudio
conda install pytorch torchvision torchaudio -c https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/pytorch/win-64/

附:

安装pytorch、torchvision、torchaudio可以选择如下镜像地址:
清华镜像

https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/pytorch/win-64/

北京外国语大学镜像

https://mirrors.bfsu.edu.cn/anaconda/cloud/pytorch/win-64/

阿里巴巴镜像

http://mirrors.aliyun.com/anaconda/cloud/pytorch/win-64/

南京大学镜像

https://mirror.nju.edu.cn/pub/anaconda/cloud/pytorch/win-64/

安装cudatoolkit可以选择如下镜像地址:
清华镜像

https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main

北京外国语大学镜像

https://mirrors.bfsu.edu.cn/anaconda/pkgs/main

阿里巴巴镜像

http://mirrors.aliyun.com/anaconda/pkgs/main

5、安装完成后,将device由默认改为自己电脑显卡的编号,如下代码所示,再次运行yolo测试程序。

parser.add_argument('--device', default='1', help='cuda device, i.e. 0 or 0,1,2,3 or cpu')

速度对比:

使用CPU

在这里插入图片描述

使用GPU

在这里插入图片描述

好家伙,同样的任务,使用GPU的检测速度直接变成CPU的10倍左右,厉害了我的哥!

再次感谢up主“我是土堆”的视频教程,谢谢!

  • 21
    点赞
  • 204
    收藏
    觉得还不错? 一键收藏
  • 12
    评论
以下是将YOLOv5转换为ONNX并在GPU上运行的示例代码: ```python import torch import onnx import onnxruntime from models.experimental import attempt_load from utils.general import non_max_suppression # Load YOLOv5 model weights = 'path/to/weights.pt' device = torch.device('cuda:0') # GPU model = attempt_load(weights, map_location=device) # load FP32 model model.to(device).eval() # Dummy input batch_size = 1 input_size = (640, 640) dummy_input = torch.randn(batch_size, 3, input_size[0], input_size[1], device=device) # Convert to ONNX input_names = ['input'] output_names = ['output'] onnx_path = 'path/to/model.onnx' dynamic_axes = {'input': {0: 'batch_size'}, 'output': {0: 'batch_size'}} torch.onnx.export(model, dummy_input, onnx_path, opset_version=11, input_names=input_names, output_names=output_names, dynamic_axes=dynamic_axes) # Load ONNX model sess_options = onnxruntime.SessionOptions() sess_options.graph_optimization_level = onnxruntime.GraphOptimizationLevel.ORT_ENABLE_ALL sess = onnxruntime.InferenceSession(onnx_path, sess_options=sess_options) # Run inference on GPU input_data = dummy_input.cpu().numpy() # convert to numpy array outputs = sess.run(None, {input_names[0]: input_data}) # run inference detections = non_max_suppression(torch.from_numpy(outputs[0]), conf_thres=0.25, iou_thres=0.45) # post-process detections ``` 需要注意的是,这个示例代码假定您已经安装了YOLOv5源代码,并将其放在了Python模块中,可以在`from models.experimental import attempt_load`中导入。如果您没有安装YOLOv5源代码,您需要将其下载并放在正确的位置。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 12
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值