可以从GitHub - bupt-ai-cz/LLVIP: LLVIP: A Visible-infrared Paired Dataset for Low-light Vision获取官方LLVIP原始数据集。
获取后的格式如下:
但是很显然不满足yolo训练的要求,接下来我们将其改成yolo格式。
首先将可见光图片(以下简称rgb)和红外光图片(一下简称ir)进行汇总,然后将label的xml格式转化成txt格式,随后按照8:1:1划分成为train、val、test,接下来我们保留train和val即可。
将获取到的数据集进行划分,为了方便处理,所以分为两个文件夹(但是label都是一样的),其中数据集格式如下:
随后我们找到开源代码进行测试,如下是yaml文件的部署:
经过代码修改之后运行结果如下:
说明代码有效。
有需要的铁铁可以私聊呀!谢谢!