【YoLo】从 PyTorch Hub 加载 YOLOv5

使用 PyTorch Hub 加载 YOLOv5

此示例从 PyTorch Hub 加载预训练的 YOLOv5s 模型,model并传递图像进行推理。'yolov5s'是最轻最快的 YOLOv5 型号。

import torch

# Model
model = torch.hub.load('ultralytics/yolov5', 'yolov5s')

# Image
im = 'https://ultralytics.com/images/zidane.jpg'

# Inference
results = model(im)

results.pandas().xyxy[0]
#      xmin    ymin    xmax   ymax  confidence  class    name
# 0  749.50   43.50  1148.0  704.5    0.874023      0  person
# 1  433.50  433.50   517.5  714.5    0.687988     27     tie
# 2  114.75  195.75  1095.0  708.0    0.624512      0  person
# 3  986.00  304.00  1028.0  420.0    0.286865     27     tie

详细示例

此示例显示了PILOpenCV图像源的批量推理。可以打印到控制台,保存到,在支持的环境中显示到屏幕上,并以张量pandas数据帧的形式返回。resultsruns/hub

import cv2
import torch
from PIL import Image

# Model
model = torch.hub.load('ultralytics/yolov5', 'yolov5s')

# Images
for f in 'zidane.jpg', 'bus.jpg':
    torch.hub.download_url_to_file('https://ultralytics.com/images/' + f, f)  # download 2 images
im1 = Image.open('zidane.jpg')  # PIL image
im2 = cv2.imread('bus.jpg')[..., ::-1]  # OpenCV image (BGR to RGB)

# Inference
results = model([im1, im2], size=640) # batch of images

# Results
results.print()  
results.save()  # or .show()

results.xyxy[0]  # im1 predictions (tensor)
results.pandas().xyxy[0]  # im1 predictions (pandas)
#      xmin    ymin    xmax   ymax  confidence  class    name
# 0  749.50   43.50  1148.0  704.5    0.874023      0  person
# 1  433.50  433.50   517.5  714.5    0.687988     27     tie
# 2  114.75  195.75  1095.0  708.0    0.624512      0  person
# 3  986.00  304.00  1028.0  420.0    0.286865     27     tie

 

推理设置

YOLOv5 模型包含各种推理属性,例如置信度阈值IoU 阈值等,可以通过以下方式设置:

model.conf = 0.25  # NMS confidence threshold
      iou = 0.45  # NMS IoU threshold
      agnostic = False  # NMS class-agnostic
      multi_label = False  # NMS multiple labels per box
      classes = None  # (optional list) filter by class, i.e. = [0, 15, 16] for COCO persons, cats and dogs
      max_det = 1000  # maximum number of detections per image
      amp = False  # Automatic Mixed Precision (AMP) inference

results = model(im, size=320)  # custom inference size

设备

模型创建后可以转移到任何设备:

model.cpu()  # CPU
model.cuda()  # GPU
model.to(device)  # i.e. device=torch.device(0)

模型也可以直接在任何device

model = torch.hub.load('ultralytics/yolov5', 'yolov5s', device='cpu')  # load on CPU

💡专业提示:在推理之前,输入图像会自动传输到正确的模型设备。

静默加载输出

模型可以静默加载_verbose=False

model = torch.hub.load('ultralytics/yolov5', 'yolov5s', _verbose=False)  # load silently

输入通道

要加载具有 4 个输入通道而不是默认的 3 个输入通道的预训练 YOLOv5s 模型:

model = torch.hub.load('ultralytics/yolov5', 'yolov5s', channels=4)

在这种情况下,模型将由预训练的权重组成,除了第一个输入层,它不再与预训练的输入层具有相同的形状。输入层将保持由随机权重初始化。

输出类别数

要加载具有 10 个输出类而不是默认的 80 个输出类的预训练 YOLOv5s 模型:

model = torch.hub.load('ultralytics/yolov5', 'yolov5s', classes=10)

在这种情况下,模型将由预训练的权重组成,除了输出层,它们不再与预训练的输出层具有相同的形状。输出层将保持由随机权重初始化。

强制重新加载

如果您在上述步骤中遇到问题,force_reload=True通过丢弃现有缓存并强制从 PyTorch Hub 重新下载最新的 YOLOv5 版本,设置可能会有所帮助。

model = torch.hub.load('ultralytics/yolov5', 'yolov5s', force_reload=True)  # force reload

截图推理

要在桌面屏幕上运行推理:

import torch
from PIL import ImageGrab

# Model
model = torch.hub.load('ultralytics/yolov5', 'yolov5s')

# Image
im = ImageGrab.grab()  # take a screenshot

# Inference
results = model(im)

训练

要加载 YOLOv5 模型进行训练而不是推理,请设置autoshape=False. 要加载具有随机初始化权重的模型(从头开始训练),请使用pretrained=False. 在这种情况下,您必须提供自己的训练脚本。或者,请参阅我们的 YOLOv5训练自定义数据教程以进行模型训练。

model = torch.hub.load('ultralytics/yolov5', 'yolov5s', autoshape=False)  # load pretrained
model = torch.hub.load('ultralytics/yolov5', 'yolov5s', autoshape=False, pretrained=False)  # load scratch

Base64 结果

用于 API 服务。有关详细信息,请参阅#2291Flask REST API示例。

results = model(im)  # inference

results.ims # array of original images (as np array) passed to model for inference
results.render()  # updates results.ims with boxes and labels
for im in results.ims:
    buffered = BytesIO()
    im_base64 = Image.fromarray(im)
    im_base64.save(buffered, format="JPEG")
    print(base64.b64encode(buffered.getvalue()).decode('utf-8'))  # base64 encoded image with results

裁剪结果

结果可以返回并保存为检测作物:

results = model(im)  # inference
crops = results.crop(save=True)  # cropped detections dictionary

Pandas结果

结果可以作为Pandas DataFrames返回:

results = model(im)  # inference
results.pandas().xyxy[0]  # Pandas DataFrame

Pandas输出(点击展开)

排序结果

结果可以按列排序,即从左到右(x轴)排序车牌数字检测:

results = model(im)  # inference
results.pandas().xyxy[0].sort_values('xmin')  # sorted left-right

箱形裁剪结果

结果可以返回并保存为检测作物:

results = model(im)  # inference
crops = results.crop(save=True)  # cropped detections dictionary

JSON 结果

.pandas()使用该.to_json()方法转换为数据帧后,可以以 JSON 格式返回结果。可以使用orient参数修改 JSON 格式。有关详细信息,请参阅熊猫.to_json() 文档

results = model(ims)  # inference
results.pandas().xyxy[0].to_json(orient="records")  # JSON img1 predictions

JSON 输出(点击展开)

定制模型

此示例使用 PyTorch Hub 加载自定义 20 类VOC训练的YOLOv5s 模型'best.pt'

model = torch.hub.load('ultralytics/yolov5', 'custom', path='path/to/best.pt')  # local model
model = torch.hub.load('path/to/yolov5', 'custom', path='path/to/best.pt', source='local')  # local repo

TensorRT、ONNX 和 OpenVINO 模型

PyTorch Hub 支持对大多数 YOLOv5 导出格式进行推理,包括自定义训练模型。有关导出模型的详细信息,请参阅TFLite、ONNX、CoreML、TensorRT 导出教程

💡专业提示:在GPU 基准测试中, TensorRT可能比 PyTorch 快 2-5 倍
💡专业提示:在CPU 基准测试中, ONNXOpenVINO可能比 PyTorch 快 2-3 倍

model = torch.hub.load('ultralytics/yolov5', 'custom', path='yolov5s.pt')  # PyTorch
                                                            'yolov5s.torchscript')  # TorchScript
                                                            'yolov5s.onnx')  # ONNX
                                                            'yolov5s_openvino_model/')  # OpenVINO
                                                            'yolov5s.engine')  # TensorRT
                                                            'yolov5s.mlmodel')  # CoreML (macOS-only)
                                                            'yolov5s.tflite')  # TFLite
                                                            'yolov5s_paddle_model/')  # PaddlePaddle

环境

YOLOv5 可以在以下任何经过验证的最新环境中运行(预装所有依赖项,包括CUDA / CUDNNPythonPyTorch):

  • 12
    点赞
  • 46
    收藏
    觉得还不错? 一键收藏
  • 12
    评论
### 回答1: YOLOv5 是一种目标检测算法,它是基于PyTorch深度学习框架构建的。YOLOv5YOLO(You Only Look Once)系列算法的最新版本,相比于之前的版本,它在精度和速度上都有很大的提升。 PyTorch Hub 是一个用于简化模型共享和使用的工具,它可以方便地加载已经发布的预训练模型,包括YOLOv5等。YOLOv5s 是YOLOv5系列中的一个小型模型,它在计算资源有限的情况下仍能提供不错的检测性能。 在使用 PyTorch Hub 加载 YOLOv5s 进行人头检测时,我们可以通过一些简单的步骤来实现。首先,我们需要安装 PyTorch 和 torch hub 库。然后,通过以下代码加载模型并进行人头检测: ```python import torch model = torch.hub.load('ultralytics/yolov5', 'yolov5s') results = model('path/to/image.jpg') ``` 在上述代码中,'path/to/image.jpg' 是待检测的图像路径,可以根据实际情况进行修改。结果将返回检测到的人头及其相关信息,包括坐标和置信度等。我们可以根据这些结果来进一步处理或展示目标检测的结果。 YOLOv5s 相对于其他版本的 YOLOv5 来说是一个较小的模型,因此在资源有限的情况下更加适用。它可以在保持较高检测精度的同时,实现更快的推理速度。因此,当我们需要进行人头检测时,YOLOv5s PyTorch Hub 可以是一个很好的选择。 ### 回答2: YOLOv5s是一种基于PyTorch的目标检测模型,可以用于人头检测任务。它是YOLO(You Only Look Once)系列中的一种,采用轻量化结构,适用于在计算资源有限的设备上进行实时检测。 YOLOv5s是通过PyTorch Hub提供的一种预训练模型PyTorch Hub是一个预训练模型的集合,提供了各种模型的预训练权重,可以方便地在Python代码中加载和使用。 通过PyTorch Hub,我们可以使用以下代码加载和使用YOLOv5s进行人头检测: ```python import torch model = torch.hub.load('ultralytics/yolov5', 'yolov5s') ``` 加载完成后,我们可以使用模型对图像或视频进行人头检测。例如,对于一张图像,我们可以使用以下代码进行检测: ```python results = model('path/to/image.jpg') ``` 此时,`results`将包含检测到的人头的位置、置信度等信息。我们可以根据需要进一步处理这些结果,如绘制边界框或计算检测到的人头数量。 总之,YOLOv5s是一种通过PyTorch Hub提供的预训练模型,可以用于人头检测任务。通过加载模型并使用相应的函数,我们可以方便地进行人头检测并获取检测结果。 ### 回答3: YOLOv5s是一种基于PyTorch Hub的人头检测模型YOLOv5s是YOLO(You Only Look Once)系列的最新版本,它采用了轻量级的结构,同时保持了较高的检测精度。PyTorch Hub是一个开源的模型库,可以方便地从中心存储库中找到和使用各种深度学习模型。 使用YOLOv5s进行人头检测非常简单。首先,您需要安装PyTorch和Torch Hub库。然后,在您的代码中引入YOLOv5s模型,并从PyTorch Hub加载预训练的权重。 一旦模型加载,您可以通过将图像传递给模型来进行人头检测。YOLOv5s模型将返回一个包含检测结果的列表,其中每个检测结果都包括一个边界框和对应的置信度得分。 您可以根据置信度得分对检测结果进行筛选,并根据需要进行后续处理,如绘制边界框或计算头部数量。此外,您还可以在YOLOv5s的基础上进行进一步的自定义,以满足特定的需求。 总之,使用YOLOv5s模型进行人头检测是非常简单和高效的。借助PyTorch Hub的便利,您可以快速加载预训练的权重并进行检测。YOLOv5s的轻量级结构使其适用于各种场景,并且具有较高的检测精度。因此,YOLOv5s在人头检测任务中是一个非常实用的解决方案。
评论 12
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值