使用新版FLIR (FLIR_ADAS_v2) 训练Faster RCNN模型

简介

  • FLIR在2022.1.19发布了新版的FLIR_ADAS_v2,相较于上一代的FLIR_1_3,新版有着更多的类别和数量更丰富的图像。但现有的博客中关于新版FLIR的使用教学少只有少,加上暑假期间曾使用FLIR_ADAS_v2来训练模型以提高其对红外热图像的识别能力,便决定记录分享一下。
  • 本文章主要介绍如何使用FLIR_ADAS_v2中的thermal image来训练基于pytorchFaster RCNN模型
  • 若有不足,也欢迎大家指正批评

FLIR_ADAS_v2数据集下载

 Faster RCNN模型下载

数据集的预处理

将json文件转换为xml文件

  • 本文章使用的是FLIR_ADAS_v2数据集中的thermal image
  • FLIR_ADAS_v2提供的annotation文件是coco.json
  • 我们需要将json文件转换为Faster RCNN所需要的xml文件
  • 网上将json文件转换为xml文件的代码很多,我在此展示我所借鉴的,仅供参考
# translate coco_json to xml
import os
import time
import json
import pandas as pd
from tqdm import tqdm
from pycocotools.coco import COCO


def trans_id(category_id):
    names = []
    namesid = []
    for i in range(0, len(cats)):
        names.append(cats[i]['name'])
        namesid.append(cats[i]['id'])
        # print('id:{1}\t {0}'.format(names[i], namesid[i]))
    index = namesid.index(category_id)
    return index

root = r''  # 你下载的 COCO 数据集所在目录
dataType = '2019'
anno = r'' # annotation文件所在的位置
xml_dir = r'' # 生成的xml文件的储存位置

coco = COCO(anno)  # 读文件
cats = coco.loadCats(coco.getCatIds())  # 这里loadCats就是coco提供的接口,获取类别

# Create anno dir
dttm = time.strftime("%Y%m%d%H%M%S", time.localtime())
# if os.path.exists(xml_dir):
#     os.rename(xml_dir, xml_dir + dttm)
# os.mkdir(xml_dir)

with open(anno, 'r') as load_f:
    f = json.load(load_f)

imgs = f['images']  # json文件的img_id和图片对应关系 imgs列表表示多少张图

cat = f['categories']
df_cate = pd.DataFrame(f['categories'])  # json中的类别
df_cate_sort = df_cate.sort_values(["id"], ascending=True)  # 按照类别id排序
categories = list(df_cate_sort['name'])  # 获取所有类别名称
print('categories = ', categories)
df_anno = pd.DataFrame(f['annotations'])  # json中的annotation

for i in tqdm(range(len(imgs))):  # 大循环是images所有图片
    xml_content = []
    file_name = imgs[i]['file_name']  # 通过img_id找到图片的信息
    height = imgs[i]['height']
    img_id = imgs[i]['id']
    width = imgs[i]['width']

    # xml文件添加属性
    xml_content.append("<annotation>")
    xml_content.append("	<folder>VOC2007</folder>")
    xml_content.append("	<filename>" + file_name.split('/')[1].split('.')[0] + '.jpg' + "</filename>")
    xml_content.append("	<size>")
    xml_content.append("		<width>" + str(width) + "</width>")
    xml_content.append("		<height>" + str(height) + "</height>")
    xml_content.append("	</size>")
    xml_content.append("	<segmented>0</segmented>")

    # 通过img_id找到annotations
    annos = df_anno[df_anno["image_id"].isin([img_id])]  # (2,8)表示一张图有两个框

    for index, row in annos.iterrows():  # 一张图的所有annotation信息
        bbox = row["bbox"]
        category_id = row["category_id"]
        # cate_name = categories[trans_id(category_id)]
        cate_name = cat[category_id-1]['name']

        # add new object
        xml_content.append("<object>")
        xml_content.append("<name>" + cate_name + "</name>")
        xml_content.append("<pose>Unspecified</pose>")
        xml_content.append("<truncated>0</truncated>")
        xml_content.append("<difficult>0</difficult>")
        xml_content.append("<bndbox>")
        xml_content.append("<xmin>" + str(int(bbox[0])) + "</xmin>")
        xml_content.append("<ymin>" + str(int(bbox[1])) + "</ymin>")
        xml_content.append("<xmax>" + str(int(bbox[0] + bbox[2])) + "</xmax>")
        xml_content.append("<ymax>" + str(int(bbox[1] + bbox[3])) + "</ymax>")
        xml_content.append("</bndbox>")
        xml_content.append("</object>")
    xml_content.append("</annotation>")

    x = xml_content
    xml_content = [x[i] for i in range(0, len(x)) if x[i] != "\n"]
    ### list存入文件
    xml_path = os.path.join(xml_dir, file_name.replace('.jpg', '.xml'))
    with open(xml_path, 'w+', encoding="utf8") as f:
        f.write('\n'.join(xml_content))
    xml_content[:] = []
  • 也可以直接使用笔者转换好的xml文件

链接: https://pan.baidu.com/s/1Um8bXlrri0B-9RF4LNeZSQ?pwd=8wk7 提取码: 8wk7

 对数据集进行分组

  • model_data文件夹下新建flir.txt文件,将所需识别的class键入
    • 因为笔者的项目需求,所以键入了FLIR_ADAS_v2的category中提到的80个类。如有需要,可直接下载笔者所用的txt文件
      • 链接: https://pan.baidu.com/s/1TU5OBbMX_5wvSOLscrLTdA?pwd=6yae 提取码: 6yae 复制这段内容后打开百度网盘手机App,操作更方便哦
  •  将生成的xml文件放入VOCdevkit -> Annotations文件夹下

  • 将对应的图片放入VOCdevkit -> JPEGImages文件夹下

  •  生成模型所需的训练文件
    • 检查VOCdevkit -> ImageSets->Main文件夹下及VOCdevkit文件夹下是否有txt文件,若有请删去

  • 点击 voc_annotation.py 文件,将 class_path 更改为类文件路径,即 model_data/flir.txt
    • 根据自己的项目需求对trainval_percenttrain_percent进行更改,若无特殊需求,可保持默认

  • 运行 voc_annotation.py 即可生成刚才所删除的txt文件,并会生成每个类所包含的数量 

开始训练

  •  点击 train.py 文件,将 classes_path 设置为类文件所在路径,即 model_data/flir.txt
  •  根据自己的需求和设备性能对Epochbatch_size等参数进行修改
  •  运行 train.py 文件即可开始训练啦!

训练结果分析

  • logs 文件夹下会生成权重文件 pth 和 报告文件

打开tfevents文件

  • 将以下代码中的event-dir换为tfevents所属文件夹的绝对路径(不是tfevents的相对路径!!!),并在命令行输入(如果环境为anaconda则在对应环境下输入)

    • 若失败请先导入tensorboard库
tensorboard --logdir=event-dir
  •  示例

  

使用训练权重进行图像识别

导入需要进行识别的图像并新建图像输出路径

  • 新建 img 文件夹,并导入需要进行识别的图像

     

  • 新建 img_out 文件夹用于储存输出图片

修改 frcnn.py 文件

  • 修改权重文件和类文件    

修改 predict.py 文件

  • 将模式修改为批量识别   
  • 修改图像的输入路径和输出路径    

运行 predict.py 文件

  • 控制台  
  •  输出图片

参考:

  • 9
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 14
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 14
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值