YOLOV8多模态(可见光+红外光,基于Ultralytics官方代码实现)


回复1:
统一回复为啥没有打印读取红外文件的pbar
在这里插入图片描述
在这里插入图片描述
另外红外图像的yaml路径其实并没用到,因为我发现v8代码在判断label的坐标不合法时候,会删除掉数据,所以很有会导致可见光图像被删除掉了,导致两个数据个数不同,我是直接使用的replace替换可见光的images路径。留下ir路径只是为了方便以后的拓展。
回复2:
AttributeError: ‘NoneType’ object has no attribute ‘replace’
f1

f1=im.replace(‘images’,‘image’)
改为
f1=self.im_files[i].replace(‘images’,‘image’)


同时训练可见光和红外图片,需要改动网络的结构,对每层的特征进行融合。同时需要对图片质量进行评价,给出自适应的融合权重。
在nn/moudle/block中融合模块中可修改融合策略。具体细节请阅读代码,主要修改有数据增强、读取部分、模型前向传播等。

各位读者麻烦给个star或者fork,求求了。

代码地址
数据集地址

YOLOV8多模态目标检测

前言:环境配置要求

torch 2.3.1
torchvision 0.18.1
Python 3.8.19
tensorrt 8.5.3.1

1. 数据集DroneVehicle数据集(可见光+热红外)

DroneVehicle数据集下载地址

DroneVehicle 数据集由无人机采集的 56,878 张图像组成,其中一半是 RGB 图像,其余是红外图像。我们为这 5 个类别制作了丰富的注释,其中包含定向边界框。其中,汽车在 RGB 图像中有 389,779 个注释,在红外图像中有 428,086 个注释,卡车在 RGB 图像中有 22,123 个注释,在红外图像中有 25,960 个注释,公共汽车在 RGB 图像中有 15,333 个注释,在红外图像中有 16,590 个注释,厢式车在 RGB 图像中有 11,935 个注释,在红外图像中有 12,708 个注释,货车在 RGB 图像中有 13,400 个注释, 以及红外图像中的 17,173 个注释。
在 DroneVehicle 中,为了在图像边界处对对象进行注释,我们在每张图像的顶部、底部、左侧和右侧设置了一个宽度为 100 像素的白色边框,因此下载的图像比例为 840 x 712。在训练我们的检测网络时,我们可以执行预处理以去除周围的白色边框并将图像比例更改为 640 x 512。
在这里插入图片描述

2. 数据集文件格式(labeles: YOLO格式)

datasets
├── image
│   ├── test
│   ├── train
│   └── val
├── images
│   ├── test
│   ├── train
│   └── val
└── labels
    ├── test
    ├── train
    └── val

images 保存的是可见光图片
image 保存的是热红外图片
labels 公用一个标签(一般来说使用红外图片标签)

3. 权重文件下载

目标检测权重
模型尺寸
(像素)
mAPval
50-95
速度
CPU ONNX
(ms)
速度
A100 TensorRT
(ms)
参数
(M)
FLOPs
(B)
YOLOv8n64037.380.40.993.28.7
YOLOv8s64044.9128.41.2011.228.6
YOLOv8m64050.2234.71.8325.978.9
YOLOv8l64052.9375.22.3943.7165.2
YOLOv8x64053.9479.13.5368.2257.8
旋转框检测权重
模型尺寸
(像素)
mAPtest
50
速度
CPU ONNX
(ms)
速度
A100 TensorRT
(ms)
参数
(M)
FLOPs
(B)
YOLOv8n-obb102478.0204.773.573.123.3
YOLOv8s-obb102479.5424.884.0711.476.3
YOLOv8m-obb102480.5763.487.6126.4208.6
YOLOv8l-obb102480.71278.4211.8344.5433.8
YOLOv8x-obb102481.361759.1013.2369.5676.7

4. 配置模型yaml文件和数据集yaml文件

分别在yaml文件夹和data文件下进行模型和数据集文件的配置

5. 训练

python train.py  

6. 测试

python test.py  

7. 打印模型信息

python info.py  

8. obb

推理:detect/obbDetect.py
热图绘制: detect/hbbHeapmap.py
onnx推理: detect/obbOnnxdetect.py

9. hbb

推理:detect/hbbDetect.py
热图绘制: detect/hbbHeapmap.py

10. onnx

导出onnx格式文件: export/exportOnnx.py
判断onnx格式和pth格式的输出是否相同: export/campareOnnxWithPth.py
删除导出engine文件的meta信息:export/delEngineMeta.py

11. 绘制框

绘制hbb真实框: plot/plotGt.py
绘制obb真实框 plot/plotObb.py
绘制文件下所有图片的hbb真实框 plot/plotAllGt.py

12. int8量化

从训练集随机挑选测试集作为校准集并进行int8量化: int8Calib/int8Claib.py
删除int8量化的中间文件:int8Calib/delData.sh
多次生成校准集量化: int8Calib/testClaib.sh

13. 检测结果

挑选最好的检测结果:findBestDetect/bestMatch.py
比较原来模型和新的模型的检测结果: findBestDetect/campareOriginWithNew.py

14. 数据处理

裁剪droneVechile数据集的白边: dataProcess/cropData.py
droneVechile数据集从Dota格式转OBB格式:dataProcess/dotaToOBB.py

YOLO多模态融合可以采用不同的融合方式,包括前端融合、后端融合和中间融合。前端融合是指将多个模态的输入直接融合成一个输入,然后输入到YOLO模型进行处理。后端融合是指在YOLO模型的输出阶段将多个模态的结果进行融合。中间融合是指在YOLO模型的中间层将多个模态的特征进行融合。 以前的研究主要集中在前融合和中间融合的方法,而较少探索后融合的可能性。后融合的优点是可以更好地解释融合结果,因为它不依赖于深度学习模型的特征提取过程。然而,后融合也存在一些问题,如模态融合过程的不稳定性和模态之间的相干性。在使用后融合的方法时,需要考虑如何合理地进行融合和决策,以及如何解释融合结果。 总结起来,YOLO多模态融合可以采用前端融合、后端融合或中间融合的方式来实现。不同的融合方式有各自的优缺点,需要根据具体情况选择合适的方法。后融合方法可以提供更好的解释性,但也需要解决融合过程的不稳定性和模态之间的相干性等问题。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [ECCV2022 | 多模态融合检测新范式!基于概率集成实现多模态目标检测](https://blog.csdn.net/CV_Autobot/article/details/126756930)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"] - *2* [工程(八)——yolov5可见光+红外双模态融合(代码)](https://blog.csdn.net/HUASHUDEYANJING/article/details/126275611)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论 95
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

@M_J_Y@

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值