人工智能教程第三课 RCNN案例

108 篇文章 18 订阅

4.3 Faster RCNN案例

学习目标

  • 了解VOC数据集的应用
  • 理解fasterRCNN模型的构成
  • 能够利用fasterRCNN网络模型进行训练和预测

image-20200921151339039

1. VOC数据集简介

image-20200921145716949

Pascal VOC数据集作为基准数据,在目标检测中常被使用到,很多优秀的计算机视觉模型比如分类,定位,检测,分割,动作识别等模型都是基于PASCAL VOC挑战赛及其数据集上推出的,尤其是一些目标检测模型(比如RCNN系列,以及后面要介绍的YOLO,SSD等)。

1.1 数据情况

常用的版本有2007和2012两个,在这里我们使用VOC2007作为案例实现的数据,该数据集总共有四大类,20个小类,如下图所示:

在这里插入图片描述

  • 从2007年开始,PASCAL VOC每年的数据集都是这个层级结构
  • 总共四个大类:vehicle,household,animal,person
  • 总共20个小类,预测的时候是只输出图中黑色粗体的类别

组织结构如下图所示:

image-20200921151637313

  • Annotations 进行 detection 任务时的标签文件,xml 形式,文件名与图片名一一对应
  • ImageSets 包含三个子文件夹 Layout、Main、Segmentation,其中 Main 存放的是分类和检测的数据集分割文件
  • JPEGImages 存放 .jpg 格式的图片文件
  • SegmentationClass 存放按照 class 分割的图片
  • SegmentationObject 存放按照 object 分割的图片

我们使用的就是Annotations和JPEGImages两部分内容,另外我们通过Main文件夹下的文本文件获取对应的训练集及验证集数据,内容如下所示:

image-20200925174549144

  • train.txt 写着用于训练的图片名称, 共 2501 个
  • val.txt 写着用于验证的图片名称,共 2510 个
  • trainval.txt train与val的合集。共 5011 个

1.2 标注信息

数据集的标注有专门的标注团队,并遵从统一的标注标准,标注信息是用 xml 文件组织,如下图所示:

image-20200921153400380

标注信息如下所示:

<annotation>
    <!--数据集版本位置-->
    <folder>VOC2007</folder>   
    <!--文件名-->
    <filename>000001.jpg</filename>   
    <!--文件来源-->
    <source>                          
        <database>The VOC2007 Database</database>
        <annotation>PASCAL VOC2007</annotation>
        <image>flickr</image>
        <flickrid>341012865</flickrid>
    </source>
    <!--拥有者-->
    <owner>                           
        <flickrid>Fried Camels</flickrid>
        <name>Jinky the Fruit Bat</name>
    </owner>
    <!--图片大小-->
    <size>                           
        <width>353</width>
        <height>500</height>
        <depth>3</depth>
    </size>
    <!--是否分割-->
    <segmented>0</segmented>
    <!--一个目标,里面的内容是目标的相关信息-->
    <object>
        <!--object名称,20个类别-->
        <name>dog</name>
        <!--拍摄角度:front, rear, left, right。。-->
        <pose>Left</pose>
        <!--目标是否被截断,或者被遮挡(超过15%)-->
        <truncated>1</truncated>
        <!--检测难易程度-->
        <difficult>0</difficult>
        <!--bounding box 的左上角点和右下角点的坐标值-->
        <bndbox>
            <xmin>48</xmin>
            <ymin>240</ymin>
            <xmax>195</xmax>
            <ymax>371</ymax>
        </bndbox>
    </object>
    <!--一个目标,里面的内容是目标的相关信息-->
    <object>
        <name>person</name>
        <pose>Left</pose>
        <!--目标是否被截断,或者被遮挡(超过15%)-->
        <truncated>1</truncated>
        <difficult>0</difficult>
        <bndbox>
            <xmin>8</xmin>
            <ymin>12</ymin>
            <xmax>352</xmax>
            <ymax>498</ymax>
        </bndbox>
    </object>
</annotation>

2 数据集解析

该数据集的解析在fasterRCNN/detection/datasets/pascal_voc.py中:

image-20200925172419050

接下来我们分析整个的实现过程:

2.1 指定数据集

根据指定的数据集,获取对应的文件信息,进行处理,其中main中txt中的内容如下所示:

image-20200925174921517

因此我们根据txt中的内容加载对应的训练和验证集:

    def load_labels(self):
        # 根据标签信息加载相应的数据
        if self.phase == 'train':
            txtname = os.path.join(
                self.data_path, 'ImageSets', 'Main', 'trainval.txt')
        else:
            txtname = os.path.join(
                self.data_path, 'ImageSets', 'Main', 'val.txt')
        # 获取图像的索引
        with open(txtname, 'r') as f:
            self.image_index = [x.strip() for x in f.readlines()]
        self.num_image = len(self.image_index)
        # 图像对应的索引放到列表gt_labels中
        gt_labels = []
        # 遍历每一份图像获取标注信息
        for index in self.image_index:
            # 获取标注信息,包括objet box坐标信息 以及类别信息
            gt_label = self.load_pascal_annotation(index)
            # 添加到列表中
            gt_labels.append(gt_label)
        # 将标注信息赋值给属性:self.gt_labels
        self.gt_labels = gt_labels

2.2图像读取

利用OpenCV读取图像数据,并进行通道的转换:

def image_read(self, imname):
    # opencv 中默认图片色彩格式为BGR
    image = cv2.imread(imname)
    # 将图片转成RGB格式
    image = cv2.cvtColor(image,cv2.COLOR_BGR2RGB).astype(np.float32)
    return image

2.3 标准信息的读取

标注信息的读取主要是根据图像的文件名获取索引后,找到对应的XML文件,读取其中的内容,得到图像的标注信息。

def load_pascal_annotation(self, index):
    """
    在PASCAL VOC的XML文件获取边框信息和类别信息
    """
    # 获取XML文件的地址
    filename = os.path.join(self.data_path, 'Annotations', index + '.xml')
    # 将XML中的内容获取出来
    tree = ET.parse(filename)
    # 获取节点图像的size
    image_size = tree.find('size')
    # 将图像的size信息存放到sizeinfo中
    size_info = np.zeros((2,), dtype=np.float32)
    # 宽
    size_info[0] = float(image_size.find('width').text)
    # 高
    size_info[1] = float(image_size.find('height').text)
    # 找到所有的object节点
    objs = tree.findall('object')
    # object的数量
    num_objs = len(objs)
    # boxes 坐标 (num_objs,4)
    boxes = np.zeros((num_objs, 4), dtype=np.float32)
    # class 的数量num_objs个,每个目标一个类别
    gt_classes = np.zeros((num_objs), dtype=np.int32)
    # 遍历所有的目标
    for ix, obj in enumerate(objs):
        # 找到bndbox节点
        bbox = obj.find('bndbox')
        # 获取坐标框的位置信息
        x1 = float(bbox.find('xmin').text) - 1
        y1 = float(bbox.find('ymin').text) - 1
        x2 = float(bbox.find('xmax').text) - 1
        y2 = float(bbox.find('ymax').text) - 1
        # 将位置信息存储在bbox中,注意boxes是一个np类的矩阵 大小为[num_objs,4]
        boxes[ix, :] = [y1, x1, y2, x2]
        # 找到class对应的类别信息
        cls = self.class_to_ind[obj.find('name').text.lower().strip()]
        # 将class信息存入gt_classses中,注意gt_classes也是一个np类的矩阵 大小为[num_objs] 是int值 对应于name
        gt_classes[ix] = cls
        # 获取图像的存储路径
        imname = os.path.join(self.data_path, 'JPEGImages', index + '.jpg')
    # 返回结果
    return {'boxes': boxes, 'gt_classs': gt_classes, 'imname': imname,  'image_size': size_info,
            'image_index': index}

2.4 图像的大小处理

在将图像送入到网络中时,我们需要将其进行大小的调整,在这里我们为了保证长宽比,使最长边resize为1024,短边进行pad:

    def prep_im_for_blob(self, im, pixel_means, target_size, max_size):
        "对输入的图像进行处理"
        im = im.astype(np.float32, copy=False)
        # 减去均值
        im -= pixel_means
        # 图像的大小
        im_shape = im.shape
        # 最短边
        im_size_min = np.min(im_shape[0:2])
        # 最长边
        im_size_max = np.max(im_shape[0:2])
        # 短边变换到800的比例
        im_scale = float(target_size) / float(im_size_min)  # 600/最短边
        # 若长边以上述比例变换后大于1024,则修正变换比例
        if np.round(im_scale * im_size_max) > max_size:
            im_scale = float(max_size) / float(im_size_max)
        # 根据变换比例对图像进行resize
        im = cv2.resize(im, None, None, fx=im_scale, fy=im_scale, interpolation=cv2.INTER_LINEAR)
        shape = (1024, 1024, im.shape[-1])
        pad = np.zeros(shape, dtype=im.dtype)
        pad[:im.shape[0], :im.shape[1], ...] = im
        # 返回im 和 im_scale
        return pad, im_scale, im.shape

2.5 构建数据读取的类

在这里我们使用tf.keras.utils.Sequence来完成数据的读取,继承Sequence类必须重载三个私有方法__init__、len__和__getitem,主要是__getitem__。

  • __init__是构造方法,用于初始化数据的。
  • __len__用于计算样本数据长度。
  • __getitem__用于生成整个batch的数据,送入神经网络模型进行训练,其输出格式是元组。__getitem__相当于生成器的作用。

Sequence是进行多处理的更安全方法。这种结构保证了网络在每个时间段的每个样本上只会训练一次。

例如:

 class CIFAR10Sequence(Sequence):
        # 定义一个类继承自Sequence
        # _init_方法进行初始化数据,指定相应的属性即可
        def __init__(self, x_set, y_set, batch_size):
            # 数据集
            self.x, self.y = x_set, y_set
            # batch的大小
            self.batch_size = batch_size
        # 定义一个epoch中的迭代次数
        def __len__(self):
            return math.ceil(len(self.x) / self.batch_size)
        # 获取一个批次数据
        def __getitem__(self, idx):
            # 获取一个批次的特征值数据
            batch_x = self.x[idx * self.batch_size:(idx + 1) *
            self.batch_size]
            # 获取一个批次的目标值数据
            batch_y = self.y[idx * self.batch_size:(idx + 1) *
            self.batch_size]
            # 返回结果
            return np.array([
                resize(imread(file_name))
                   for file_name in batch_x]), np.array(batch_y)

那在VOC数据集的读取中我们也类似的进行处理:

class pascal_voc(keras.utils.Sequence):
    def __init__(self, phase):
        # pascal_voc 2007数据的存储路径
        self.data_path = os.path.join('../VOCdevkit', 'VOC2007')
        # batch_size
        self.batch_size = 1
        # 图片的最小尺寸
        self.target_size = 800
        # 图片的最大尺寸
        self.max_size = 1024
        # 输入网络中的图像尺寸
        self.scale = (1024, 1024)
        # 类别信息  ['background', 'aeroplane', 'bicycle', 'bird', 'boat', 'bottle', 'bus'....]
        self.classes = ['background', 'aeroplane', 'bicycle', 'bird', 'boat', 'bottle', 'bus', 'car', 'cat', 'chair', 'cow', 'diningtable', 'dog', 'horse','motorbike', 'person', 'pottedplant', 'sheep', 'sofa','train', 'tvmonitor']

        # 构建目标类别的字典{'background': 0, 'aeroplane': 1, "bicycle": 2....}
        self.class_to_ind = dict(zip(self.classes, range(len(self.classes))))
        # 像素RGB的均值
        self.pixel_means = np.array([[[122.7717, 115.9465, 102.9801]]])
        # 用来指明获取训练集或者是验证集数据
        self.phase = phase
        # 获取图像数量,并加载相应的标签
        self.load_labels()
        # 目标总数量
        self.num_gtlabels = len(self.gt_labels)
        self.img_transform = transforms.ImageTransform(self.scale, self.pixel_means, [1.,1.,1.], 'fixed')
        self.bbox_transform = transforms.BboxTransform()
        self.flip_ratio=0.5

    def __len__(self):
        # 返回迭代次数
        return np.round(self.num_image/self.batch_size)

    def __getitem__(self, idx):
        # 获取当前batch的起始索引值
        i = idx * self.batch_size
        batch_images = []
        batch_imgmeta= []
        batch_box = []
        bacth_labels = []
        for c in range(self.batch_size):
            # 获取相应的图像
            imname = self.gt_labels[i+c]['imname']
            # 读取图像
            image = self.image_read(imname)
            # 获取原始图像的尺寸
            ori_shape = image.shape
            # 进行尺度调整后的图像及调整的尺度
            image, image_scale,image_shape= self.prep_im_for_blob(image, self.pixel_means, self.target_size, self.max_size)
            # 获取尺度变换后图像的尺寸
            pad_shape = image.shape
            # 将gt_boxlabel与scale相乘获取图像调整后的标注框的大小:boxes.shape=[num_obj,4]
            bboxes = self.gt_labels[i+c]['boxes'] * image_scale
            # 获取对应的类别信息
            labels = self.gt_labels[i+c]['gt_classs']
            # print(labels)
            # 图像的基本信息
            img_meta_dict = dict({
                'ori_shape': ori_shape,
                'img_shape': image_shape,
                'pad_shape': pad_shape,
                'scale_factor': image_scale
            })
            # 将字典转换为列表的形式
            image_meta = self.compose_image_meta(img_meta_dict)
            # print(image_meta)
            batch_images.append(image)
            bacth_labels.append(labels)
            batch_imgmeta.append(image_meta)
            batch_box.append(bboxes)

        # 将图像转换成tensorflow输入的形式:【batch_size,H,W,C】
        batch_images = np.reshape(batch_images, (self.batch_size, image.shape[0], image.shape[1], 3))
        # 图像元信息
        batch_imgmeta = np.reshape(batch_imgmeta,(self.batch_size,11))
        # 标注框信息
        batch_box = np.reshape(batch_box,(self.batch_size,bboxes.shape[0],4 ))
        # 标注类别信息
        bacth_labels = np.reshape(bacth_labels,((self.batch_size,labels.shape[0])))
        # 返回结果:尺度变换后的图像,图像元信息,目标框位置,目标类别
        return batch_images,batch_imgmeta, batch_box, bacth_labels

2.6 数据解析类演示

我们利用上述的数据解析方法来对VOC数据集进行解析:

  • 导入所需的工具包
# 导入数据集 VOC data
from detection.datasets import pascal_voc
from detection.datasets.utils import get_original_image
import numpy as np
# 图像展示
from matplotlib import pyplot as plt
  • 获取图像并设置图像的均值与方差
# 实例化
pascal = pascal_voc.pascal_voc('train')
# 获取图像
image, image_meta, bboxes, labels = pascal[8]
# 图像的均值和标准差
img_mean = (122.7717, 115.9465, 102.9801)
img_std = (1., 1., 1.)
  • 原图像展示
# 获取原图像
ori_img = get_original_image(image[0], image_meta[0], img_mean).astype(np.uint8)
# 图像展示
plt.imshow(ori_img)
plt.show()

image-20200921161303155

  • 送入网络中的图像进行了resize和pasding
# 送入网络中的图像
rgb_img = np.round(image + img_mean).astype(np.uint8)
plt.imshow(rgb_img[0])
plt.show()

在这里插入图片描述

  • 将标注信息显示出来
# 显示图像,及对应的标签值
import visualize
visualize.display_instances(rgb_img[0], bboxes[0], labels[0], pascal.classes)

image-20200921161442056

3.模型训练

接下来我们利用已搭建好的网络和数据进行模型训练,在这里我们使用:

  • 定义tf.GradientTape的作用域,计算损失值
  • 使用 tape.gradient(ys, xs) 自动计算梯度
  • 使用 optimizer.apply_gradients(grads_and_vars) 自动更新模型参数

完成网络的训练。我们来看下实现流程:

# 导入工具包
from detection.datasets import pascal_voc
import tensorflow as tf
import numpy as np
from matplotlib import pyplot as plt
from detection.models.detectors import faster_rcnn
  • 加载数据获取数据类别
# 加载数据集
train_dataset = pascal_voc.pascal_voc('train')
# 数据类别
num_classes = len(train_dataset.classes)
  • 模型加载
model = faster_rcnn.FasterRCNN(num_classes=num_classes)
  • 定义优化器
# 优化器
optimizer = tf.keras.optimizers.SGD(1e-3, momentum=0.9, nesterov=True)
  • 模型训练
# 模型优化
loss_his = []
for epoch in range(10):
    # 获取样本的index
    indices = np.arange(train_dataset.num_gtlabels)
    # 打乱
    np.random.shuffle(indices)
    # 迭代次数
    iter = np.round(train_dataset.num_gtlabels /
                    train_dataset.batch_size).astype(np.uint8)
    # 每一次迭代
    for idx in range(iter):
        # 获取某一个bacth
        idx = indices[idx]
        # 获取当前batch的结果
        batch_imgs, batch_metas, batch_bboxes, batch_labels = train_dataset[idx]
        # 定义作用域
        with tf.GradientTape() as tape:
            # 将数据送入网络中计算损失
            rpn_class_loss, rpn_bbox_loss, rcnn_class_loss, rcnn_bbox_loss = \
                model((batch_imgs, batch_metas, batch_bboxes,
                       batch_labels), training=True)
            # 求总损失
            loss = rpn_class_loss + rpn_bbox_loss + rcnn_class_loss + rcnn_bbox_loss
        # 计算梯度值
        grads = tape.gradient(loss, model.trainable_variables)
        # 更新参数值
        optimizer.apply_gradients(zip(grads, model.trainable_variables))
        # 打印损失结果
        print("epoch:%d, loss:%f" % (epoch + 1, loss))
        loss_his.append(loss)
        # 每一次迭代中只运行一个图像
        continue
    # 每一个epoch中只运行一次迭代
    continue    

结果为:

epoch:1, loss:147.117371
epoch:2, loss:72.580498
epoch:3, loss:79.347351
epoch:4, loss:41.220577
epoch:5, loss:5.238140
epoch:6, loss:2.924250
epoch:7, loss:5.287500

损失函数的变换如下图所示:

# 绘制损失函数变化的曲线
plt.plot(range(len(loss_his)),[loss.numpy() for loss in loss_his])
plt.grid()

image-20200921164738442

4.模型测试

在这里我们首先加载模型,我们来看下RPN网络和fastRCNN网络的输出。

导入工具包

# 导入数据集 VOC data
from detection.datasets import pascal_voc
import numpy as np
# 图像展示
from matplotlib import pyplot as plt
# 显示图像,及对应的标签值
import visualize
# 模型加载
from detection.models.detectors import faster_rcnn
import tensorflow as tf
from detection.core.bbox import transforms
from detection.datasets.utils import get_original_image

4.1 数据和模型加载

首先加载要进行预测的数据和训练好的模型:

  • 数据集加载
# 数据集加载
# 实例化
pascal = pascal_voc.pascal_voc('train')
# 获取图像
image, image_meta, bboxes, labels = pascal[8]
# 图像的均值和标准差
img_mean = (122.7717, 115.9465, 102.9801)
img_std = (1., 1., 1.)
# 获取图像,显示
rgb_img = np.round(image + img_mean).astype(np.uint8)
plt.imshow(rgb_img[0])
plt.show()

image-20200921174904774

  • 模型加载
# 加载模型:模型训练是在COCO数据集中进行的,
# coco数据集中的类别信息
classes = ['bg', 'person', 'bicycle', 'car', 'motorcycle', 'airplane', 'bus', 'train', 'truck', 'boat', 'traffic light', 'fire hydrant', 'stop sign', 'parking meter', 'bench', 'bird', 'cat', 'dog', 'horse', 'sheep', 'cow', 'elephant', 'bear', 'zebra', 'giraffe', 'backpack', 'umbrella', 'handbag', 'tie', 'suitcase', 'frisbee', 'skis', 'snowboard', 'sports ball', 'kite', 'baseball bat', 'baseball glove', 'skateboard', 'surfboard', 'tennis racket', 'bottle', 'wine glass', 'cup', 'fork', 'knife', 'spoon', 'bowl', 'banana', 'apple', 'sandwich', 'orange', 'broccoli', 'carrot', 'hot dog', 'pizza', 'donut', 'cake', 'chair', 'couch', 'potted plant', 'bed', 'dining table', 'toilet', 'tv', 'laptop', 'mouse', 'remote', 'keyboard', 'cell phone', 'microwave', 'oven', 'toaster', 'sink', 'refrigerator', 'book', 'clock', 'vase', 'scissors', 'teddy bear', 'hair drier', 'toothbrush']
# 模型加载
model = faster_rcnn.FasterRCNN(num_classes=len(classes))
# 将数据送入到网络中
_ = model((image, image_meta, bboxes, labels), training=True)
# 加载已训练好的权重
model.load_weights('weights/faster_rcnn.h5')

接下来,我们来看下RPN网络和fastRCNN的输出。

4.2 RPN网络

4.2.1 RPN的目标值
  • 获取图像的anchor,并匹配目标值
# 根据图像信息产生anchor
anchors, valid_flags = model.rpn_head.generator.generate_pyramid_anchors(image_meta)
# 并设置anchor对应的目标值
rpn_target_matchs, rpn_target_deltas = model.rpn_head.anchor_target.build_targets(
                anchors, valid_flags, bboxes, labels)
  • 获取正负样本,及正样本的回归值
# 获取正样本
positive_anchors = tf.gather(anchors, tf.where(tf.equal(rpn_target_matchs, 1))[:, 1])
# 获取负样本
negative_anchors = tf.gather(anchors, tf.where(tf.equal(rpn_target_matchs, -1))[:, 1])
# 获取非正非负样本
neutral_anchors = tf.gather(anchors, tf.where(tf.equal(rpn_target_matchs, 0))[:, 1])
# 获取正样本的回归值
positive_target_deltas = rpn_target_deltas[0, :tf.where(tf.equal(rpn_target_matchs, 1)).shape[0]]
# 获取anchor修正的目标值    
refined_anchors = transforms.delta2bbox(
    positive_anchors, positive_target_deltas, (0., 0., 0., 0.), (0.1, 0.1, 0.2, 0.2))
  • 正负样本的结果
# 正负样本的个数
print('rpn_target_matchs:\t', rpn_target_matchs[0].shape.as_list())
print('rpn_target_deltas:\t', rpn_target_deltas[0].shape.as_list())
print('positive_anchors:\t', positive_anchors.shape.as_list())
print('negative_anchors:\t', negative_anchors.shape.as_list())
print('neutral_anchors:\t', neutral_anchors.shape.as_list())
print('refined_anchors:\t', refined_anchors.shape.as_list()
rpn_target_matchs:   [261888]
rpn_target_deltas:   [256, 4]
positive_anchors:    [4, 4]
negative_anchors:    [252, 4]
neutral_anchors:     [261632, 4]
refined_anchors:     [4, 4]
  • 将正样本绘制在图像上
# 将正样本的anchor显示在图像上
visualize.draw_boxes(rgb_img[0], 
                     boxes=positive_anchors.numpy(), 
                     refined_boxes=refined_anchors.numpy())
plt.show()

image-20200921173457335

4.2.2 RPN的预测结果
  • 将图像送入网络中获取预测结果
# 不可训练
training = False
# 获取backbone提取的特征结果
C2, C3, C4, C5 = model.backbone(image, 
                                training=training)
# 获取fcn的特征结果
P2, P3, P4, P5, P6 = model.neck([C2, C3, C4, C5], 
                                training=training)
  • 获取送入到RPN网络中的特征图,并送入RPN网络中
# 获取特征图
rpn_feature_maps = [P2, P3, P4, P5, P6]
# 获取RPN的预测结果:分类和回归结果
rpn_class_logits, rpn_probs, rpn_deltas = model.rpn_head(
    rpn_feature_maps, training=training)
  • 将置信度较高的anchor显示在图像上
# [batch_size, num_anchors, (bg prob, fg prob)]  rpn的分类结果,在这里我们去第一个batch,所有anchor前景的概率
rpn_probs_tmp = rpn_probs[0, :, 1]
# 将置信度top100的绘制在图像上
limit = 100
ix = tf.nn.top_k(rpn_probs_tmp, k=limit).indices[::-1]
# 绘制在图像上
visualize.draw_boxes(rgb_img[0], boxes=tf.gather(anchors, ix).numpy())

结果如下所示:

image-20200921174654999

4.3 fastRCNN网络

将RPN的结果送入到后续网络中,进行检测:

  • 获取候选区域
# 候选区域
proposals_list = model.rpn_head.get_proposals(
    rpn_probs, rpn_deltas, image_meta)
  • 进行ROIPooling
rois_list = proposals_list
# roipooling
pooled_regions_list = model.roi_align(
    (rois_list, rcnn_feature_maps, image_meta), training=training)
  • 预测
# 进行预测
rcnn_class_logits_list, rcnn_probs_list, rcnn_deltas_list = \
    model.bbox_head(pooled_regions_list, training=training)
  • 获取预测结果
# 获取预测结果
detections_list = model.bbox_head.get_bboxes(
    rcnn_probs_list, rcnn_deltas_list, rois_list, image_meta)
  • 获取预测结果的坐标,并绘制在图像上
# 获得坐标值
tmp = detections_list[0][:, :4]
# 将检测检测的框绘制在图像上
visualize.draw_boxes(rgb_img[0], boxes=tmp.numpy())

在这里插入图片描述

4.4 目标检测

上述我们是分步进行预测,我们也可以直接在原图像上进行预测:

# 获取原图像
ori_img = get_original_image(image[0], image_meta[0], img_mean)
# 获取候选区域
proposals = model.simple_test_rpn(image[0], image_meta[0])
# 检测结果
res = model.simple_test_bboxes(image[0], image_meta[0], proposals)
# 将检测结果绘制在图像上
visualize.display_instances(ori_img, res['rois'], res['class_ids'], 
                            classes, scores=res['scores'])

最终的检测结果为:

image-20200921175652684


总结

  • 了解VOC数据集的应用理解

Pascal VOC数据集作为基准数据,在目标检测中常被使用到

  • fasterRCNN模型的构成

主要有RPN网络进行候选区域的的生成,然后使用fastRCNN网络进行预测

得坐标值
tmp = detections_list[0][:, :4]

将检测检测的框绘制在图像上

visualize.draw_boxes(rgb_img[0], boxes=tmp.numpy())


[外链图片转存中...(img-ZdVzW5nN-1652844754890)]

### 4.4 目标检测

上述我们是分步进行预测,我们也可以直接在原图像上进行预测:

获取原图像

ori_img = get_original_image(image[0], image_meta[0], img_mean)

获取候选区域

proposals = model.simple_test_rpn(image[0], image_meta[0])

检测结果

res = model.simple_test_bboxes(image[0], image_meta[0], proposals)

将检测结果绘制在图像上

visualize.display_instances(ori_img, res[‘rois’], res[‘class_ids’],
classes, scores=res[‘scores’])


最终的检测结果为:

[外链图片转存中...(img-6e1CRU0h-1652844754892)]

------

**总结**

- 了解VOC数据集的应用理解

Pascal VOC数据集作为基准数据,在目标检测中常被使用到

- fasterRCNN模型的构成

主要有RPN网络进行候选区域的的生成,然后使用fastRCNN网络进行预测

- 能够利用fasterRCNN网络模型进行训练和预测
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

办公模板库 素材蛙

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值