目标检测概述

1 什么是目标检测

目标检测,即 Object Detection

目标检测的任务是找出图像中所有感兴趣的目标,并确定它们的类别位置

在这里插入图片描述

目标检测的位置信息⼀般由两种格式(以图片左上⻆为原点(0,0)):

  • 极坐标表示:(xmin, ymin, xmax, ymax)
    • xmin,ymin:x,y坐标的最小值
    • xmax,ymax:x,y坐标的最大值
  • 中心点坐标:(x_center, y_center, w, h)
    • x_center, y_center:目标检测框的中心点坐标
    • w,h:目标检测框的宽、高

目标检测的应用场景

目标检测具有巨⼤的实用价值和应用前景。

  • 应用领域包括⼈脸检测、行⼈检测、⻋辆检测、卫星图像中道路的检测、⻋载
    摄像机图像中的障碍物检测、医学影像在的病灶检测等。
  • 应⽤场景包括长/视频领域、医学场景、安防领域、自动驾驶等等众多领域

2 常用开源数据集

经典的目标检测数据集有两种,PASCAL VOC数据集 和 MS COCO数据集。

2.1 PASCAL VOC数据集

下载地址

PASCAL VOC是目标检测领域的经典数据集。PASCAL VOC包含约10,000张带有边界框的图片用于训练和验证。PASCAL VOC数据集是目标检测问题的一个基准数据集,很多模型都是在此数据集上得到的,常用的是VOC2007和VOC2012两个版本数据,共20个类别,分别是:

在这里插入图片描述
也就是:

  1. 人: 人

  2. 动物: 鸟,猫,牛,狗,马,羊

  3. 交通工具: 飞机,自行车,船,公共汽车,汽车,摩托车,火车

  4. 室内: 瓶子,椅子,餐桌,盆栽,沙发,电视/显示器

整个数据的目录结构如下所示:

在这里插入图片描述

2.2 MS COCO数据集

3 常用评价指标

3.1 IOU

IOU(intersection over union,交并比)是目标检测算法中用来评价2个矩形框之间相似度的指标:
I O U = 两个矩形框相交的面积 两个矩形框相并的面积 IOU = \frac{两个矩形框相交的面积}{两个矩形框相并的面积} IOU=两个矩形框相并的面积两个矩形框相交的面积
如下图所示:
在这里插入图片描述
再通过⼀个例⼦看下在⽬标检测中的应用:

在这里插入图片描述

其中上图蓝⾊框框为检测结果,红⾊框框为真实标注。

那我们就可以通过预测结果与真实结果之间的交并⽐来衡量两者之间的相似度。⼀般情况下对于检测框的判定都会存在⼀个阈值,也就是 IOU 的阈值,⼀般可以设置当 IOU 的值⼤于 0.5 的时候,则可认为检测到目标物体。

实现方法:

import numpy as np
def Iou(box1, box2, wh=False):
    if wh == False:
        # 使用极坐标形式:(xmin, ymin, xmax, ymax)
        xmin1, ymin1, xmax1, ymax1 = box1
        xmin2, ymin2, xmax2, ymax2 = box2
    else:
        # 使用中心坐标形式:(x_center, y_center, w, h)
        # 第一个框
        xmin1, ymin1 = int(box1[0] - box1[2] / 2.0), int(box1[1] - box1[3] / 2.0)
        xmax1, ymax1 = int(box1[0] + box1[2] / 2.0), int(box1[1] + box1[3] / 2.0)
        # 第二个框
        xmin2, ymin2 = int(box2[0] - box2[2] / 2.0), int(box2[1] - box1[3] / 2.0)
        xmax2, ymax2 = int(box2[0] + box2[2] / 2.0), int(box2[1] + box1[3] / 2.0)
    # 获取交集的左上角、左下角坐标
    xx1 = np.max(xmin1, xmin2)
    yy1 = np.max(ymin1, ymin2)
    xx2 = np.min(xmax1, xmax2)
    yy2 = np.min(ymax1, ymax2)
    # 计算交集的面积
    inner_area = np.max(0, xx2 - xx1) * np.max(0, yy2 - yy1)
    # 计算并集的面积
    area1 = (xmax1-xmin1) * (ymax1-ymin1)
    area2 = (xmax2-xmin2) * (ymax2-ymin2)
    union_area = area1 + area2 - inner_area
    # IOU
    # 防止分母为零,故在分母处加一个极小的值,对最终的结果影响不大
    IOU = inner_area / (union_area + 1e-6)
    return IOU

假设我们检测结果如下所示,并展示在图像上:

import matplotlib.pyplot as plt

# 真实框
true_box = [100, 35, 398, 400]
# 预测框
pre_box = [40, 150, 355, 398]

img = plt.imread("dog.jpeg")
fig = plt.imshow(img)
# 将真实框绘制在图像上
# (true_box[0],true_box[1])左上角坐标
fig.axes.add_patch(
    plt.Rectangle((true_box[0],true_box[1]),width=true_box[2]-true_box[0],height=true_box[3]-true_box[1],fill=False,edgecolor="blue", linewidth=2))
# 将预测框绘制在图像上
# (pre_box[0],pre_box[1])左上角坐标
fig.axes.add_patch(
    plt.Rectangle((pre_box[0],pre_box[1]),width=pre_box[2]-pre_box[0],
    height=pre_box[3]-pre_box[1],fill=False,edgecolor="red", linewidth=2))

在这里插入图片描述

计算 IOU:

Iou(true_box,pre_box)
# 0.5114435907762924

3.2 mAP

前面的IOU只是衡量了预测的位置与真实位置之间的相似度,而没有考虑分类结果。

目标检测问题中的每个图片都可能包含⼀些不同类别的物体,需要评估模型的物体 分类(准确率)和 定位(IOU)性能,评估这两者需要 mAP,即 Mean Average Precision,mAP是多个分类任务的 AP 的平均值,而AP(average precision)是PR曲线下的⾯积。在目标检测中,mAP是主要的衡量指标。

复习混淆矩阵:

在这里插入图片描述
在 mPA 中,TP、FP、FN、TN

  • TP: I O U > I O U t h r e s h o l d IOU>IOU_{threshold} IOU>IOUthreshold的检测框数量, I O U t h r e s h o l d IOU_{threshold} IOUthreshold,即 IOU阈值,一般取 0.5
  • FP: I O U < = I O U t h r e s h o l d IOU<=IOU_{threshold} IOU<=IOUthreshold的检测框数量,或者是检测到同一个 GT(真实框)的多余的检测框数量
  • FN:没有检测的 GT(真实框)的数量
  • TN:在mPA的评价指标中不会使用到

查准率、查全率

  • 查准率(Precision):TP/(TP + FP)
  • 查全率(Recall): TP/(TP + FN)

查准率、查全率绘制的曲线称为 P-R 曲线

在这里插入图片描述

先定义两个公式,⼀个是 Precision,⼀个是 Recall,与上⾯的公式相
同,扩展开来,⽤另外⼀种形式进⾏展示,其中 all detctions 代表
所有预测框的数量, all ground truths 代表所有 GT(真实框) 的数量。
在这里插入图片描述

AP 是计算某⼀类 P-R 曲线下的面积,mAP 则是计算所有类别 P-R 曲线下面积的平均值。

3.3 NMS

非极⼤值抑制(Non-Maximum Suppression,NMS),顾名思义就是抑制不是极大值的元素。例如在行人检测中,滑动窗⼝经提取特征,经分类器分类识别后,每个窗口都会得到⼀个分数。但是滑动窗⼝会导致很多窗口与其他窗口存在包含或者大部分交叉的情况。这时就需要用到NMS来选取那些邻域⾥分数最⾼(是行人的概率最大),并且抑制那些分数低的窗口。 NMS在计算机视觉领域有着非常重要的应⽤,如视频目标跟踪、数据挖掘、3D重建、目标识别以及纹理分析等 。

在⽬标检测中,NMS的⽬的就是要去除冗余的检测框,保留最好的⼀个,如下图所示:

在这里插入图片描述
NMS的原理是对于预测框的列表B及其对应的置信度S,选择具有最⼤ score 的检测框M,将其从B集合中移除并加⼊到最终的检测结果D中。通常将B中剩余检测框中与M的 IOU ⼤于阈值的框从B中移除,重复这个过程,直到B为空。

使⽤流程如下图所示:

  • ⾸先是检测出⼀系列的检测框
  • 将检测框按照类别进⾏分类
  • 对同⼀类别的检测框应⽤NMS获取最终的检测结果

在这里插入图片描述
通过⼀个例⼦理解 NMS的使⽤⽅法,假设定位⻋辆,算法就找出了⼀系列的矩形框,我们需要判别哪些矩形框是没⽤的,需要使⽤NMS的⽅法来实现。

在这里插入图片描述
假设现在检测窗⼝有:A、B、C、D、E 5个候选框,接下来进⾏迭代计算:

  • 第⼀轮:因为B是得分最⾼的,与B的 IOU>0.5删除。A,CDE中现在与B计算 IOU,DE结果>0.5,剔除DE,B作为⼀个预测结果,有个检测框留下B,放⼊集合
  • 第⼆轮:A的得分最⾼,与A计算 IOU,C的结果>0.5,剔除C,A作为⼀个结果

最终结果为在这个5个中检测出了两个⽬标为A和B。

单类别的NMS的实现⽅法如下所示:

import numpy as np
def nms(boxes, score, threshold):
    # 无候选框返回空
    if len(boxes) == 0:
        return [], []
    boxes = np.array(boxes)
    score = np.array(score)
    x1 = boxes[:, 0]
    y1 = boxes[:, 1]
    x2 = boxes[:, 2]
    y2 = boxes[:, 3]
    # 最终筛选的框和分数
    picked_boxes = []
    picked_score = []
    # 对置信度进行排序(默认从小到大),获取排序后的下标
    order = np.argsort(score)
    areas = (x2 - x1) * (y2 - y1)
    while order.size > 0:
        # 获取score最大值的索引
        index = order[-1]
        picked_boxes.append(boxes[index])
        picked_score.append(score[index])
        # 获取当前置信度最⼤的候选框与其他任意候选框的相交⾯积
        # np.maximum(X, Y) 用于逐元素比较两个array的大小。
        # 这里用到了numpy的广播机制
        x11 = np.maximum(x1[index], x1[order[:-1]])
        y11 = np.maximum(y1[index], y1[order[:-1]])
        x22 = np.minimum(x2[index], x2[order[:-1]])
        y22 = np.minimum(y2[index], y2[order[:-1]])
        # 计算相交的⾯积,不重叠时⾯积为0
        w = np.maximum(0.0, x22 - x11)
        h = np.maximum(0.0, y22 - y11)
        inner_area = w * h
        # IOU
        IOU = inner_area / (areas[index] + areas[order[:-1]] - inner_area)
        # 删除冗余框
        keep_boxes = np.where(IOU < threshold)
        # 更新order
        order = order[keep_boxes]
    return picked_boxes, picked_score

boxes = [(187, 82, 337, 317), (150, 67, 305, 282), (246, 121, 368, 304)]
score = [0.9, 0.65, 0.8]
threshold = 0.3
picked_boxes, picked_score = nms(boxes, score, threshold)
print('阈值threshold为:', threshold)
print('NMS后得到的bbox是:', picked_boxes)
print('NMS后得到的bbox的confidences是:', picked_score)

numpy中的广播机制

4 目标检测算法分类

目标检测算法主要分为 two-stage(两阶段)和 one-stage(单阶段)两类

4.1 two-stage算法

先由算法⽣成⼀系列作为样本的候选框,再通过卷积神经网络进行样本分类。如下图所示,主要通过⼀个卷积神经网络来完成目标检测过程,其提取的是CNN卷积特征,进⾏候选区域的筛选和目标检测两部分。网络的准确度⾼、速度相对较慢。

在这里插入图片描述

two-stage算法的代表是RCNN系列:R-CNN 到 Faster R-CNN⽹络。

在这里插入图片描述

4.2 one-stage算法

直接通过主干网络给出目标的类别和位置信息,没有使⽤候选区域的筛选网路,这种算法速度快,适合实时任务,但是精度相对Two-stage目标检测网络降低了很多。

在这里插入图片描述

one-stage算法的代表是: YOLO系列:YOLOv1、YOLOv2、YOLOv3、SSD等。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值