DEtection TRansformer (DETR)与YOLO在目标检测方面的比较

1. 概述

计算机视觉中的目标检测是一个复杂而有趣的领域,它涉及到让计算机能够识别图像中的物体,并确定它们的位置。下面是DETR和YOLO这两种目标检测方法简单比较:

1.1 YOLO

YOLO是一种非常流行的目标检测算法,它的核心思想是将目标检测任务视为一个回归问题。YOLO将输入图像划分为一个个格子(grid),每个格子负责预测中心点落在该格子内的目标。YOLO会预测边界框(bounding boxes)的位置以及边界框内物体的类别。

YOLO的特点包括:

  • 速度快:YOLO的设计使其能够非常快速地进行目标检测,这使得它非常适合实时应用。
  • 整体性:YOLO将整个图像作为一个整体来处理,这有助于它捕捉到图像中的上下文信息。
  • 版本迭代:YOLO已经发展到了多个版本(如YOLOv1, YOLOv2, YOLOv3, YOLOv4, YOLOv5等),每个版本都在性能和速度上有所提升。

1.2 DETR

DETR是一种较新的基于transformer的目标检测方法。与YOLO不同,DETR不依赖于卷积神经网络(CNN)来提取特征,而是使用transformer架构来直接预测目标的类别和位置。

DETR的特点包括:

  • 基于transformer:DETR利用了transformer模型的自注意力机制,这使得它能够捕捉到全局上下文信息。
  • 端到端:DETR是一个端到端的模型,它直接从图像到边界框和类别标签进行预测,无需额外的锚框或复杂的后处理步骤。
  • 灵活性:由于transformer架构的灵活性,DETR可以容易地扩展到其他任务,如实例分割等。

2、算法比较

自2012年以来,计算机视觉经历了一场由卷积神经网络(CNN)和深度学习架构带来的革命性变革。其中值得注意的架构包括AlexNet(2012年)、GoogleNet(2014年)、VGGNet(2014年)和ResNet(2015年),它们包含了许多卷积层以提高图像分类的准确性。尽管图像分类任务涉及给整个图像分配标签,例如将一张图片分类为狗或汽车,但目标检测不仅识别图像中的内容,还精确地指出每个物体在图像中的位置。

原始的YOLO(2015年)论文在发布时在实时目标检测方面是一个突破,并且仍然是实际视觉应用中最常用的模型之一。它将检测过程从两到三阶段过程(即,R-CNN,Fast R-CNN)转变为单阶段卷积阶段,并在准确性和速度方面超越了所有最先进的目标检测方法。原始论文中的模型架构随着时间的推移发生了变化,通过添加不同的手工设计特征来提高模型的准确性。以下是YOLO前三个版本的概述及其差异。

YOLO v1 (2015)

YOLO v1是原始版本,为后续迭代奠定了基础。它使用单个深度卷积神经网络(CNN)来预测边界框和类别概率。YOLO v1将输入图像划分为网格,并在每个网格单元进行预测。每个单元负责预测固定数量的边界框及其相应的类别概率。这个版本以令人印象深刻的速度实现了实时目标检测,但在检测小物体和准确定位重叠物体方面存在一些限制。
在这里插入图片描述

YOLO v2 (2016)

YOLO v2解决了原始YOLO模型的一些限制。它引入了锚框,这有助于更好地预测不同大小和纵横比的边界框。YOLO v2使用了一个更强大的后端网络Darknet-19,并且不仅在原始数据集(PASCAL VOC)上训练,还在COCO数据集上训练,这显著增加了可检测类别的数量。锚框和多尺度训练的结合有助于提高小物体的检测性能。
在这里插入图片描述

YOLO v3 (2018)

YOLO v3进一步提高了目标检测的性能。这个版本引入了特征金字塔网络的概念,具有多个检测层,允许模型在不同的尺度和分辨率下检测物体。YOLO v3使用了一个更大的网络架构,有53个卷积层,称为Darknet-53,这提高了模型的表示能力。YOLO v3在三个不同的尺度上使用检测:13x13、26x26和52x52网格。每个尺度每个网格单元预测不同数量的边界框。
在这里插入图片描述

我们在预测多少边界框??在416 x 416的分辨率下,YOLO v1预测7 x 7 = 49个框。YOLO v2预测了13 x 13 x 5 = 845个框。对于YOLO v2,在每个网格单元,使用5个锚点检测5个框。另一方面,YOLO v3在3个不同的尺度上预测框。对于同样大小为416 x 416的图像,预测的框数为13 x 13 x 3 + 26 x 26 x 3 + 52 x 52 x 3 = 10,647。非极大值抑制(NMS),一种后处理技术,用于过滤冗余和重叠的边界框预测。在NMS算法中,首先,低于某个置信度分数的框从预测列表中删除。然后,置信度分数最高的预测被视为“当前”预测,所有置信度分数较低且与“当前”预测的IoU高于某个阈值(例如,0.5)的其他预测被标记为冗余并被抑制。有关在PyTorch中实现NMS,请参阅这个YouTube视频。

DETR

DETR (DEtection TRansformer)是一种相对较新的目标检测算法,由Facebook AI Research (FAIR)的研究人员在2020年引入。它基于transformer架构,这是一种强大的序列到序列模型,已被用于各种自然语言处理任务。传统的目标检测器(即,R-CNN和YOLO)复杂,经历了多次变化,并依赖于手工设计的组件(即,NMS)。另一方面,DETR是一个直接的集合预测模型,使用transformer编码器-解码器架构一次性预测所有物体。这种方法比传统目标检测器更简单、更高效,并在COCO数据集上实现了可比的性能。

DETR架构简单,由三个主要部分组成:用于特征提取的CNN后端(即,ResNet)、transformer编码器-解码器和用于最终检测预测的前馈网络(FFN)。后端处理输入图像并生成激活图。transformer编码器降低通道维度并应用多头自注意力和前馈网络。transformer解码器使用N个物体嵌入的并行解码,并独立预测箱子坐标和类别标签,使用物体查询。DETR利用成对关系,从整个图像上下文中受益,共同推理所有物体。
在这里插入图片描述

3、论文

以下代码(取自DETR的官方GitHub仓库)定义了这个DETR模型的前向传递,它通过包括卷积后端和transformer网络在内的各个层处理输入数据。我在代码中包含了每个网络层的输出形状,以了解所有的数据转换。

class DETRdemo(nn.Module):
    def __init__(self, num_classes, hidden_dim=256, nheads=8, num_encoder_layers=6, num_decoder_layers=6):
        super().__init__()
        # 2. 创建ResNet-50后端
        self.backbone = resnet50()
        del self.backbone.fc        # 创建转换层
        self.conv = nn.Conv2d(2048, hidden_dim, 1)
        # 3. 创建默认的PyTorch transformer
        self.transformer = nn.Transformer(hidden_dim, nheads, num_encoder_layers, num_decoder_layers)
        # 4. 预测头,一个额外的类用于预测非空插槽
        # 注意,在基线DETR中线性_bbox层是3层MLP
        self.linear_class = nn.Linear(hidden_dim, num_classes + 1)
        self.linear_bbox = nn.Linear(hidden_dim, 4)
        # 5. 输出位置编码(物体查询)
        self.query_pos = nn.Parameter(torch.rand(100, hidden_dim))
        # 空间位置编码
        # 注意,在基线DETR中我们使用正弦位置编码
        self.row_embed = nn.Parameter(torch.rand(50, hidden_dim // 2))
        self.col_embed = nn.Parameter(torch.rand(50, hidden_dim // 2))

    def forward(self, inputs):
        # 通过ResNet-50向上传播到平均池化层
        # 输入:torch.Size([1, 3, 800, 1066])
        x = self.backbone.conv1(inputs)    # torch.Size([1, 64, 400, 533])
        x = self.backbone.bn1(x)           # torch.Size([1, 64, 400, 533])
        x = self.backbone.relu(x)          # torch.Size([1, 64, 400, 533])
        x = self.backbone.maxpool(x)       # torch.Size([1, 64, 200, 267])
        x = self.backbone.layer1(x)        # torch.Size([1, 256, 200, 267])
        x = self.backbone.layer2(x)        # torch.Size([1, 512, 100, 134])
        x = self.backbone.layer3(x)        # torch.Size([1, 1024, 50, 67])
        x = self.backbone.layer4(x)        # torch.Size([1, 2048, 25, 34])
        # 从2048转换为256个特征平面供transformer使用
        h = self.conv(x)                   # torch.Size([1, 256, 25, 34])
        # 构建位置编码
        H, W = h.shape[-2:]
        pos = torch.cat([
            self.col_embed[:W].unsqueeze(0).repeat(H, 1, 1),
            self.row_embed[:H].unsqueeze(1).repeat(1, W, 1),
        ], dim=-1).flatten(0, 1).unsqueeze(1) # torch.Size([850, 1, 256])
        src = pos + 0.1 * h.flatten(2).permute(2, 0, 1)  # torch.Size([850, 1, 256])
        target = self.query_pos.unsqueeze(1)    # torch.Size([100, 1, 256])
        # 通过transformer传播
        h = self.transformer(pos + 0.1 * h.flatten(2).permute(2, 0, 1), self.query_pos.unsqueeze(1).transpose(0, 1)) # torch.Size([1, 100, 256])
        linear_cls = self.linear_class(h)        # torch.Size([1, 100, 92])
        liner_bbx = self.linear_bbox(h).sigmoid()  # torch.Size([1, 100, 4])
        # 最后将transformer输出投影到类标签和边界框
        return {'pred_logits': linear_cls, 'pred_boxes': linear_bbx}

以下是代码的逐步解释:

初始化:__init__方法定义了DETR模块的结构。它接受几个超参数作为输入,包括类别数量(num_classes)、隐藏维度(hidden_dim)、注意力头数(nheads)以及编码器和解码器的层数(num_encoder_layers和num_decoder_layers)。

后端和转换层:代码创建了一个ResNet-50后端(self.backbone)并移除了其全连接(fc)层,因为检测时不会使用它。conv层(self.conv)被添加以将后端的输出从2048个通道转换为hidden_dim个通道。

transformer:使用nn.Transformer类(self.transformer)创建了一个PyTorch transformer。这个transformer将处理模型的编码器和解码器部分。根据提供的超参数设置编码器和解码器层的数量以及其他参数。

预测头:模型定义了两个线性层用于预测:self.linear_class预测类别logits。为了预测非空插槽,增加了一个额外的类别,因此是num_classes + 1。self.linear_bbox预测边界框的坐标。应用了.sigmoid()函数以确保边界框坐标在[0, 1]范围内。

位置编码:位置编码对于基于transformer的模型至关重要。模型定义了查询位置编码(self.query_pos)和空间位置编码(self.row_embed和self.col_embed)。这些编码帮助模型理解不同元素之间的空间关系。

模型产生100个有效预测。我们只保留输出概率高于特定限制的输出预测,并丢弃所有其他预测。

4、示例

在这一部分,我展示了一个来自我的GitHub仓库的示例项目,其中我使用了DETR和YOLO模型对实时视频流进行了处理。这个项目的目标是比较DETR在实时视频流上的性能与YOLO(这是大多数实时应用中的事实上的模型)的性能。下面的server.py脚本使用了来自Ultraalytics的YOLO v8和来自torch hub的预训练DETR模型。

import torch
from ultralytics import YOLO
import cv2
from dataclasses import dataclass
import time
from utils.functions import plot_results, rescale_bboxes, transform
from utils.datasets import LoadWebcam, LoadVideo
import logging
logging.basicConfig(level=logging.DEBUG,
                    format="%(asctime)s - %(levelname)s - %(message)s")
@dataclass
class Config:
    source: str = "assets/walking_resized.mp4"
    view_img: bool = False
    model_type: str = "detr_resnet50"
    device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
    skip: int = 1
    yolo: bool = True
    yolo_type = "yolov8n.pt"

class Detector:
    def __init__(self):
        self.config = Config()
        self.device = self.config.device
        if self.config.source == "0":
            logging.info("Using stream from the webcam")
            self.dataset = LoadWebcam()
        else:
            logging.info("Using stream from the video file: " + self.config.source)
            self.dataset = LoadVideo(self.config.source)
        self.start = time.time()
        self.count = 0

    def load_model(self):
        if self.config.yolo:
            if self.config.yolo_type is None or self.config.yolo_type == "":
                raise ValueError("YOLO model type is not specified")
            model = YOLO(self.config.yolo_type)
            logging.info(f"YOLOv8 Inference using {self.config.yolo_type}")
        else:
            if self.config.model_type is None or self.config.model_type == "":
                raise ValueError("DETR model type is not specified")
            model = torch.hub.load("facebookresearch/detr", self.config.model_type, pretrained=True).to(self.device)
            model.eval()
            logging.info(f"DETR Inference using {self.config.model_type}")
        return model

    def detect(self):
        model = self.load_model()
        for img in self.dataset:
            self.count += 1
            if self.count % self.config.skip != 0:
                continue
            if not self.config.yolo:
                im = transform(img).unsqueeze(0).to(self.device)
                outputs = model(im)
                # 只保留置信度0.7+的预测
                probas = outputs["pred_logits"].softmax(-1)[0, :, :-1]
                keep = probas.max(-1).values > 0.9
                bboxes_scaled = rescale_bboxes(outputs["pred_boxes"][0, keep].to("cpu"), img.shape[:2])
            else:
                outputs = model(img)
            logging.info(f"FPS: {self.count / self.config.skip / (time.time() - self.start)}")
            # print(f"FPS: {self.count / self.skip / (time.time() - self.start)}")
            if self.config.view_img:
                if self.config.yolo:
                    annotated_frame = outputs[0].plot()
                    cv2.imshow("YOLOv8 Inference", annotated_frame)
                    if cv2.waitKey(1) & 0xFF == ord("q"):
                        break
                else:
                    plot_results(img, probas[keep], bboxes_scaled)
        logging.info("************************* Done *****************************")

if __name__ == "__main__":
    detector = Detector()
    detector.detect()

server.py脚本负责从摄像头、IP摄像机或本地视频文件等来源获取数据。这个来源可以在server.py的config数据类中修改。性能评估显示,使用yolov8m.pt模型时,在Tesla T4 GPU上达到了每秒55帧(FPS)的惊人处理速度。另一方面,使用detr_resnet50模型的结果是每秒15 FPS的处理速度。

5、结论

YOLO是实时检测应用的绝佳选择,它专注于速度,适用于视频分析和实时目标跟踪等应用。另一方面,DETR在需要提高准确性和处理物体之间复杂交互的任务中表现出色,这在医学成像、细粒度目标检测以及检测质量优于实时处理速度的场景中可能特别重要。然而,重要的是要认识到,DETR的一个新迭代——被称为RT-DETR或实时DETR——在2023年发布,声称在速度和准确性方面都优于类似规模的所有YOLO检测器。这项创新虽然在这篇博客中没有涵盖,但它强调了这个领域的动态性质,以及根据特定应用需求进一步细化YOLO和DETR选择的潜力。

  • 24
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

知来者逆

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值