【论文解读】SAHI:针对小目标检测的切片辅助超推理库

★★★ 本文源自AI Studio社区精品项目,【点击此处】查看更多精品内容 >>>


SAHI:针对小目标检测的切片辅助超推理库

当数据集中大部分目标均极小的情况下,使用SAHI可以进一步提高检测精度,并且它可以应用在任何现有的目标检测网络上。特别地,由于无人机航拍获得的图像中,其目标尺寸较小,本项目在最后会介绍PaddleDetection的SAHI(Slicing Aided Hyper Inference)工具切图和拼图的方案,并展示基于PP-YOLOE-SOD小目标检测模型对无人机航拍图像的推理效果。·

参考资料:

一、小目标检测主流解决方案

小目标检测中的小目标目前有两大类的定义,分别是基于相对尺度定义(即与同一类别中所有目标实例的相对面积相比)和基于绝对尺度定义(即从目标绝对像素大小这一角度考虑来对小目标进行定义)。目前最为通用的定义来自于目标检测领域的通用数据集——MS COCO数据集,将小目标定义为分辨率小于32像素×32像素的目标。

在做小目标检测时,由于待检测物体在图像中的像素占比较少,缺乏足够的细节,因此难以使用传统目标检测方法进行检测,但是目前也有一些方法在尝试解决小目标检测的难点。

1.数据增强

在提升模型性能的方法中,数据增强是最简单、最有效的方法,通过不同的数据增强策略可以扩充训练数据集的规模,从而在一定程度上增强模型的鲁棒性和泛化能力。常用的增强策略有:

  • 复制增强:通过对图像中的小目标的复制与粘贴操作进行数据增强
  • 自适应采样:考虑上下文信息进行复制,避免出现尺度不匹配和背景不匹配的问题
  • 尺度匹配:通过尺度匹配策略对图像进行尺度变换,用作额外的数据补充
  • 放与拼接:通过缩放拼接操作增加中、小尺寸目标的数量

数据增强这一策略虽然在一定程度上解决了小目标信息量少、有效提高了网络的泛化能力,在最终检测性能上获得了较好的效果,但同时带来了计算成本的增加。而且在实际应用中,怎么选择数据增强策略也是一个问题,设计不当的数据增强策略可能会引入新的噪声,损害特征提取的性能,这也给算法的设计带来了挑战。

SAHI算法就属于数据增强的方法,为了处理小对象检测问题,SAHI算法在fine-tuning和推理阶段提出了一种基于切片的通用框架。将输入图像分割成重叠的块,这样小目标物体的像素区域相对较大一些。

注:因为SAHI算法只是将输入图像分成若干子图,所以它输入图像的分辨率很高,适用于遥感图像、4k无人机航拍图像等高质量图像,而不适用于分辨率很低的图像!换句话说,该算法解决的是基于相对尺度定义的小目标检测,而对于在基于绝对尺度定义的小目标检测收效甚微。

2.多尺度学习

小目标与常规目标相比可利用的像素较少,难以提取到较好的特征,而且随着网络层数的增加,小目标的特征信息与位置信息也逐渐丢失,难以被网络检测。这些特性导致小目标同时需要深层语义信息与浅层表征信息,而多尺度学习将这两种相结合,是一种提升小目标检测性能的有效策略。常用的多尺度学习模型框架如下图所示:

注:上图源于高新波,莫梦竟成,汪海涛等.小目标检测研究进展[J].数据采集与处理,2021,36(03):391-417.

多尺度特征融合同时考虑了浅层的表征信息和深层的语义信息,有利于小目标的特征提取,能够有效地提升小目标检测性能。然而,现有多尺度学习方法在提高检测性能的同时也增加了额外的计算量,并且在特征融合过程中难以避免干扰噪声的影响,这些问题导致了基于多尺度学习的小目标检测性能难以得到进一步提升。

3.上下文学习

在真实世界中,“目标与场景”和“目标与目标”之间通常存在一种共存关系,通过利用这种关系将有助于提升小目标的检测性能。将目标周围的上下文集成到深度神经网络中的方法有:基于隐式上下文特征学习的目标检测和显式上下文推理的目标检测。

4.生成对抗学习

生成对抗学习的方法旨在通过将低分辨率小目标的特征映射成与高分辨率目标等价的特征,从而达到与尺寸较大目标同等的检测性能。前文所提到的数据增强、特征融合和上下文学习等方法虽然可以有效地提升小目标检测性能,但是这些方法带来的性能增益往往受限于计算成本。

二、算法框架

为了处理小目标检测问题,SAHI算法在fine-tuning和推理阶段提出了一种基于切片的通用框架。将输入图像分割成重叠的块,这样小目标物体的像素区域相对较大一些。

1.fine-tuning阶段的切片框架

fine-tuning阶段通过从图像中提取patch并将其调整为更大的大小来增强数据集,fine-tuning阶段的切片框架如下图所示:

注:上图源于Fatih Cagatay Akyon, Sinan Onur Altinuc, & Alptekin Temizel (2023). Slicing Aided Hyper Inference and Fine-tuning for Small Object Detection

具体地,SAHI算法在微调阶段通过从数据集中提取patch来增强数据集。每个图像 I 1 F , I 2 F , … , I j F I_{1}^{F}, I_{2}^{F}, \ldots, I_{j}^{F} I1F,I2F,,IjF将被切片为重叠的patch P 1 F , P 2 F , … P k F P_{1}^{F}, P_{2}^{F}, \ldots P_{k}^{F} P1F,P2F,PkF

然后在微调期间,通过保持纵横比来调整patch的大小,使得图像宽度在800到1333像素之间,以获得增强图像 I 1 ′ , I 2 ′ , … , I k ′ I_{1}^{\prime}, I_{2}^{\prime}, \ldots, I_{k}^{\prime} I1,I2,,Ik,因此相对对象大小与原始图像相比更大。在微调期间将会使用增强图像 I 1 ′ , I 2 ′ , … , I k ′ I_{1}^{\prime}, I_{2}^{\prime}, \ldots, I_{k}^{\prime} I1,I2,,Ik以及原始图像 I 1 F , I 2 F , … , I j F I_{1}^{F}, I_{2}^{F}, \ldots, I_{j}^{F} I1F,I2F,,IjF(以便于检测大物体)。

必须注意的是,随着patch大小的减小,较大的对象可能不适合切片和相交区域,这可能导致较大对象的检测性能较差。

2.推理阶段的切片框架

在推理过程中,图像被划分为许多较小的子图,并对这些子图进行resize后送入模型进行预测。然后,预测结果会在NMS之后转换回原始图像坐标。特别地,还可以添加来自原图的预测结果。推理阶段的切片框架如下图所示:

注:上图源于Fatih Cagatay Akyon, Sinan Onur Altinuc, & Alptekin Temizel (2023). Slicing Aided Hyper Inference and Fine-tuning for Small Object Detection

在推理的时候中也采用切片方法。首先,将原始图像 I I I分成 l l l M × N M \times N M×N个重叠的patch P 1 I , P 2 I , … P l I P_{1}^{I}, P_{2}^{I}, \ldots P_{l}^{I} P1I,P2I,PlI

然后,在保留纵横比的同时调整每个patch的大小,并且对每个patch分别进行预测。特别地,加上对原始图像的推理结果可用于检测更大的物体。

最后,使用NMS将重叠的预测结果和对原始图像的推理结果合并,并转换到原始大小。

总的来说,SAHI算法非常巧妙地避开了模型设计,只在模型的输入做改进,也正因如此,SAHI算法可以应用在现有的任意目标检测算法中。但是缺点也很明显,就是用速度换精度,对于实时检测的场景,可能不是那么地适合,除非检测模型非常小、推理速度非常快…

三、基于SAHI的无人机航拍图像检测

这里我们在PP-YOLOE模型的基础上,使用SAHI算法完成无人机航拍图像检测。

飞桨PaddleDetection团队已经提供了训练好的PP-YOLOE模型,并且配置了SAHI算法,可供我们快速体验。

PaddleDetection是一个基于PaddlePaddle的目标检测端到端开发套件,在提供丰富的模型组件和测试基准的同时,注重端到端的产业落地应用,通过打造产业级特色模型|工具、建设产业应用范例等手段,帮助开发者实现数据准备、模型选型、模型训练、模型部署的全流程打通,快速进行落地应用。

1.安装必要的资源库

# 下载PaddleDetection
%cd /home/aistudio/
# gitee 国内下载比较快
!git clone https://gitee.com/paddlepaddle/PaddleDetection.git -b develop
/home/aistudio
正克隆到 'PaddleDetection'...
remote: Enumerating objects: 255205, done.[K
remote: Counting objects: 100% (202/202), done.[K
remote: Compressing objects: 100% (152/152), done.[K
remote: Total 255205 (delta 74), reused 156 (delta 50), pack-reused 255003[K
接收对象中: 100% (255205/255205), 412.30 MiB | 5.01 MiB/s, 完成.
处理 delta 中: 100% (209102/209102), 完成.
检查连接... 完成。
# 安装PaddleDetection
%cd /home/aistudio/PaddleDetection/
!pip install -r requirements.txt
!python setup.py install

2.准备PP-YOLOE模型

导出基于VisDrone-DET数据集训练的PP-YOLOE模型

# 导出模型
%cd /home/aistudio/PaddleDetection/
!python tools/export_model.py -c configs/smalldet/ppyoloe_crn_l_80e_sliced_visdrone_640_025.yml \
                              -o weights=https://paddledet.bj.bcebos.com/models/ppyoloe_crn_l_80e_sliced_visdrone_640_025.pdparams
[01/11 21:20:41] ppdet.utils.download INFO: Downloading ppyoloe_crn_l_80e_sliced_visdrone_640_025.pdparams from https://paddledet.bj.bcebos.com/models/ppyoloe_crn_l_80e_sliced_visdrone_640_025.pdparams
100%|████████████████████████████████| 208285/208285 [00:08<00:00, 24169.58KB/s]
[01/11 21:20:51] ppdet.utils.checkpoint INFO: Finish loading model weights: /home/aistudio/.cache/paddle/weights/ppyoloe_crn_l_80e_sliced_visdrone_640_025.pdparams
[01/11 21:20:52] ppdet.data.source.category WARNING: anno_file 'dataset/visdrone_sliced/val_640_025.json' is None or not set or not exist, please recheck TrainDataset/EvalDataset/TestDataset.anno_path, otherwise the default categories will be used by metric_type.
[01/11 21:20:52] ppdet.data.source.category WARNING: metric_type: COCO, load default categories of COCO.
[01/11 21:20:52] ppdet.engine INFO: Export inference config file to output_inference/ppyoloe_crn_l_80e_sliced_visdrone_640_025/infer_cfg.yml
[01/11 21:21:01] ppdet.engine INFO: Export model and saved in output_inference/ppyoloe_crn_l_80e_sliced_visdrone_640_025

导出的模型将保存在/home/aistudio/PaddleDetection/output_inference/ppyoloe_crn_l_80e_sliced_visdrone_640_025

3.单图预测

使用PaddleDetection/deploy/python/infer.py进行预测,其中有以下参数可以配置:

  • slice_infer表示切图预测并拼装重组结果,如果不使用则不写;
  • slice_size表示切图的子图尺寸大小
  • overlap_ratio表示子图间重叠率;
  • combine_method表示子图结果重组去重的方式,默认是nms;
  • match_threshold表示子图结果重组去重的阈值,默认是0.6;
  • match_metric表示子图结果重组去重的度量标准,默认是ios表示交小比(两个框交集面积除以更小框的面积),也可以选择交并比iou(两个框交集面积除以并集面积),精度效果因数据集而而异,但选择ios预测速度会更快一点;
# 使用单张子图预测
%cd /home/aistudio/PaddleDetection/
!python deploy/python/infer.py --model_dir=output_inference/ppyoloe_crn_l_80e_sliced_visdrone_640_025 \
                               --image_file=/home/aistudio/drone_demo.jpg \
                               --output_dir=/home/aistudio/work/demo/deploy_output \
                               --threshold=0.30 \
                               --slice_infer
                               --device=GPU

为了做对比,这里展示基于SAHI算法以及不基于SAHI算法的预测结果,如图所示:

这张图是我精心挑选的,因为图像中不仅有小目标(非机动车、行人等),还有尺寸相对较大的目标(公交车)。从上图的对比中不难发现:

  • 直接输入原图对于面积占比较大的物体的检测效果更好;但是在检测小物体时,检测框有重叠,效果会差一些
  • 使用SAHI算法时,可以发现大物体的检测效果变差了,公交车的检测框并没有完全框住公交车;但是在检测非机动车时,可以发现重叠框变少了,比直接输入原图的效果要好一些。

4.视频预测

对多个航拍视频逐帧拆解成图像,并进行推理,推理结束后,将推理结果可视化并合成视频。

视频拆帧

/home/aistudio/drone_video文件夹下的所有视频逐帧拆解,这里放了5个示例视频:

drone_video
├── Video_20230104_203458_0002_AA 00_00_04-00_00_15.mp4
├── Video_20230104_204350_0011_AA 00_00_05-00_00_30.mp4
├── Video_20230104_204741_0013_AA 00_00_08-00_00_21.mp4
├── Video_20230104_205948_0006_AA 00_00_00-00_00_03.mp4
└── Video_20230104_210422_0010_AA 00_00_15-00_00_34.mp4

视频拍摄设备为哈博森Zino Mini Pro无人机

视频拆解成图片后,其图片会保存到/home/aistudio/drone_video2img文件夹中,并且在该文件夹下,每个视频文件会生成一个文件夹,对应视频拆出来的图片会放到对应名称的文件夹中:

drone_video2img
├── Video_20230104_203458_0002_AA 00_00_04-00_00_15
├── Video_20230104_204350_0011_AA 00_00_05-00_00_30
├── Video_20230104_204741_0013_AA 00_00_08-00_00_21
├── Video_20230104_205948_0006_AA 00_00_00-00_00_03
└── Video_20230104_210422_0010_AA 00_00_15-00_00_34
# 对文件夹下的所有视频进行批量拆帧
!python /home/aistudio/video2image.py

批量预测

/home/aistudio/drone_video2img文件夹下的所有图片进行基于SAHI算法(切图)的预测,并保存可视化预测结果.

对文件夹下的图片进行批量检测时,infer.py--image_file需要改为--image_dir,并在--image_dir后面输入文件夹路径。

# 对某个文件夹下的图片进行批量预测
import os
import threading
from threading import Lock, Thread

folder_path = "/home/aistudio/drone_video2img"
folderlist = os.listdir(folder_path)

def folder_detect(foldername):
    os.system('cd /home/aistudio/PaddleDetection/ && \
              python deploy/python/infer.py --model_dir=output_inference/ppyoloe_crn_l_80e_sliced_visdrone_640_025 \
                                             --image_dir=/home/aistudio/drone_video2img/{}/ \
                                             --output_dir=/home/aistudio/drone_videoimg_output/{}/ \
                                             --threshold=0.30 \
                                             --slice_infer \
                                             --device=GPU'.format(foldername, foldername))

for foldername in folderlist:
    print(foldername)
    if(foldername == '.ipynb_checkpo'):
        continue
    folder_detect(foldername)
    

注:输出的图像有缺失是正常的,可能某一张图像中没有目标物体,就不会输出检测结果

合成视频

最后将可视化的检测结果(单张图片)按顺序合成为视频即可。

!python /home/aistudio/image2video.py

视频展示:

b站视频链接:https://www.bilibili.com/video/BV1GD4y1W7Hf/

四、总结与升华

SAHI算法在一定程度上可以提高小目标检测模型的性能,但是对于大目标来说,可能性能会有所降低,因此,在推理时可以增加原图推理的结果,但是,这样一来会导致推理时间的延长,并且,SAHI算法的切图操作本身就会带来性能上的损耗,不过SAHI算法也会小目标检测的优化打开了思路,这样一个通用的、可以应用在任何现有的目标检测网络上的算法给我的感觉更像是一种可以在比赛中刷榜的trick。

作者简介

郑博培,百度飞桨开发者技术专家,AI Studio精选项目审稿人,前任百度飞桨北京领航团团长、百度飞桨领航团技术面试官,多次参与各大竞赛基线系统的开发、多次担任课程讲师及助教。

我在AI Studio上获得至尊等级,点亮10个徽章,来互关呀!!!

https://aistudio.baidu.com/aistudio/personalcenter/thirdview/147378

  • 4
    点赞
  • 47
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
【资源说明】 1.项目代码均经过功能验证ok,确保稳定可靠运行。欢迎下载食用体验! 2.主要针对各个计算机相关专业,包括计算机科学、信息安全、数据科学与大数据技术、人工智能、通信、物联网等领域的在校学生、专业教师、企业员工。 3.项目具有丰富的拓展空间,不仅可作为入门进阶,也可直接作为毕设、课程设计、大作业、初期项目立项演示等用途。 4.当然也鼓励大家基于此进行二次开发。在使用过程中,如有问题或建议,请及时沟通。 5.期待你能在项目中找到乐趣和灵感,也欢迎你的分享和反馈! 【项目介绍】 基于SAHI模块结合YOLOv5-5.0实现分辨率小目标检测示例源码(含使用方法).zip 环境 ·win + pycharm ·sahi==0.8.4 ·yolov5==5.0 ·pytorch==1.7.1+cu101 ```commandline # 安装gpu版torch和torchvision pip install torch==1.7.1+cu101 torchvision==0.8.2+cu101 torchaudio==0.7.2 -f https://download.pytorch.org/whl/torch_stable.html # pip install yolov5 pip install sahi==0.8.4 pip install fiftyone imantics ``` ## RUN 1. csdn下载项目解压,命名为SAHI-yolov5(路径不要搞中文) 2. tree:\ main.py\ README.md\ samll-vehicles1.jpg\ yolov5s6.pt 3. vim main.py: ```commandline line4: yolov5_model_path = yolov5_model_path = "C:\\Users\\kiven\\Desktop\\SAHI\\yolov5s6.pt" # 放置你的权重地址 line10: device="cuda:0", # or 'cpu' ``` 4. please change your path and divice 5. python main.py
SAHI是一种切片辅助推理框架,旨在帮助开发人员解决现实世界中的目标检测问题。它通过将图像分成多个切片来提高检测性能,从而克服了现实世界中的一些问题,例如目标尺寸变化,目标遮挡和目标密度变化等。SAHI的核心思想是将图像分成多个切片,然后对每个切片进行单独的检测,最后将检测结果合并起来得到最终的检测结果。这种方法可以提高检测性能,特别是对于小目标的检测效果更好。 下面是一个使用SAHI进行目标检测的Python代码示例: ```python import cv2 import numpy as np # 加载图像 img = cv2.imread('test.jpg') # 定义切片大小 slice_size = 512 # 获取图像大小 height, width, _ = img.shape # 计算切片数量 num_slices_h = int(np.ceil(height / slice_size)) num_slices_w = int(np.ceil(width / slice_size)) # 定义检测器 detector = cv2.dnn.readNetFromCaffe('deploy.prototxt', 'model.caffemodel') # 定义类别标签 class_labels = ['person', 'car', 'truck', 'bus'] # 定义检测结果列表 results = [] # 循环遍历每个切片 for i in range(num_slices_h): for j in range(num_slices_w): # 计算切片的坐标 x1 = j * slice_size y1 = i * slice_size x2 = min(x1 + slice_size, width) y2 = min(y1 + slice_size, height) # 提取切片 slice_img = img[y1:y2, x1:x2] # 构建输入blob blob = cv2.dnn.blobFromImage(slice_img, 1.0, (300, 300), (104.0, 177.0, 123.0)) # 进行检测 detector.setInput(blob) detections = detector.forward() # 解析检测结果 for k in range(detections.shape[2]): confidence = detections[0, 0, k, 2] class_id = int(detections[0, 0, k, 1]) # 如果置信度大于0.5,则将检测结果添加到列表中 if confidence > 0.5 and class_labels[class_id] == 'person': x = int(detections[0, 0, k, 3] * slice_size) + x1 y = int(detections[0, 0, k, 4] * slice_size) + y1 w = int(detections[0, 0, k, 5] * slice_size) - x h = int(detections[0, 0, k, 6] * slice_size) - y results.append((x, y, w, h)) # 在原始图像上绘制检测结果 for (x, y, w, h) in results: cv2.rectangle(img, (x, y), (x + w, y + h), (0, 255, 0), 2) # 显示结果 cv2.imshow('result', img) cv2.waitKey(0) cv2.destroyAllWindows() ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值