P2BNet网络训练VisDrone数据集

P2BNet网络训练VisDrone数据集

0 P2BNet介绍

该网络源自ECCV2022最新的目标检测论文Point-to-Box Network for Accurate Object Detection via Single Point Supervision

该论文介绍了一种单点监督的改进方法,作者认为使用单点监督的OTSP方法之所以性能一直都不太好,是因为他们生成建议包的质量普遍太差,所以作者提供了一种轻量级的网络——P2BNet,来弥补过往方式的缺陷,从而生成高质量的实例级包,节约标准成本,性能SOTA!

论文阅读可参考博客:http://t.csdn.cn/kAa8H

代码地址:GitHub - ucas-vg/P2BNet: ECCV2022, Point-to-Box Network for Accurate Object Detection via Single Point Supervision

1 VisDrone数据集转COCO格式

VisDrone是一个无人机的目标检测数据集。由各种无人机摄像头捕获,包含不同场景、天气、光照条件下的各种位置、环境、物体等。

VisDrone转COCO格式可参考博客:http://t.csdn.cn/xYEN7

注意将visdrone数据集的目录格式调整为coco的目录格式,并将转化好的json文件放入annotations文件夹中。

2 P2BNet训练VisDrone数据集

Ⅰ 选定训练模型

​ 这里采用的是faster_rcnn_r50_fpn_1x_coco.py模型,位于P2BNet-main/TOV_mmdetection/configs/faster_rcnn/目录下

Ⅱ 下载模型权重,修改全连接层神经元个数

​ 权重下载地址:mmdetection/configs/faster_rcnn at master · open-mmlab/mmdetection · GitHub

​ 修改全连接层神经元个数代码:

import torch
pretrained_weights  = torch.load('checkpoints/faster_rcnn_r50_fpn_1x_coco_20200130-047c8118.pth')
#更改权重载入地址
num_class = 10
pretrained_weights['state_dict']['roi_head.bbox_head.fc_cls.weight'].resize_(num_class+1, 1024)
pretrained_weights['state_dict']['roi_head.bbox_head.fc_cls.bias'].resize_(num_class+1)
pretrained_weights['state_dict']['roi_head.bbox_head.fc_reg.weight'].resize_(num_class*4, 1024)
pretrained_weights['state_dict']['roi_head.bbox_head.fc_reg.bias'].resize_(num_class*4)
torch.save(pretrained_weights, "faster_rcnn_r50_fpn_1x_%d.pth"%num_class)

​ 该代码参考博客:http://t.csdn.cn/xYEN7

Ⅲ 更改类别参数

visdrone数据集的数据类别有:ignored regions, pedestrian,people, bicycle, car, van, truck, tricycle, awning-tricycle, bus, motor,others共12种(一般会去掉头和尾,剩下10种类别),需要修改的地方有:

①P2BNet-main/TOV_mmdetection/mmdet/datasets/coco.py 中的Classes:

在这里插入图片描述

②P2BNet-main/TOV_mmdetection/mmdet/core/evaluation/class_names.py中的coco_classes:

在这里插入图片描述

③P2BNet-main/TOV_mmdetection/configs2/COCO/P2BNet/中的num_classes(80->12):

在这里插入图片描述

注意,这里的类别数如果与之前的类别集合数目不一致的话,可能在训练过程中(而不是训练一开始)会出现RuntimeError: CUDA error: device-side assert triggered的错误。

Ⅳ 生成点注释json文件

生成点注释的python文件位于:P2BNet-main/TOV_mmdetection/huicv/corner_dataset/corner_dataset_util.py

注意这个python文件传入的参数,要在执行该文件时,填入相应的路径参数,其中:

ann_file 是visdrone转化好的annotation.json文件,save_ann_file是保存点注释文件的路径,这里的路径应与annotation.json在同一目录下。

注意:json文件里面没存放ignore字段,所以要在同目录下的coner_utils.py文件中将此块代码注释掉,如下:

在这里插入图片描述

Ⅴ 训练

训练命令参考:P2BNet/README.md at main · ucas-vg/P2BNet · GitHub

/github.com/ucas-vg/P2BNet/blob/main/TOV_mmdetection/README.md)

  • 3
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
好的,以下是一个简单的贝叶斯网络故障溯源的 MATLAB 代码示例,以及一个生成的数据集。 首先,我们定义一个简单的贝叶斯网络模型,表示故障模式: ``` P(A) = f(B) P(C) = f(A) P(D) = f(B,C) ``` 其中,A、B 和 C 分别表示三个故障模式,D 表示受影响的设备。 现在,我们生成一个简单的数据集,其中包含 1000 个观测数据: ``` A B C D 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 ... ... ... ... 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 ``` 在这个数据集中,前三列表示观测到的三个故障模式的情况,第四列表示受影响的设备的状态。 现在,让我们使用 MATLAB 中的 BayesNet Toolbox 来构建并训练我们的贝叶斯网络模型: ```matlab % 导入数据集 data = readtable('dataset.csv'); % 定义贝叶斯网络模型 dag = zeros(4); dag(1,2) = 1; dag(2,4) = 1; dag(1,3) = 1; dag(3,4) = 1; node_sizes = [2 2 2 2]; onodes = 4; bnet = mk_bnet(dag, node_sizes, 'discrete', 1:4, 'observed', onodes); % 定义每个变量的先验分布 bnet.CPD{1} = tabular_CPD(bnet, 1, [0.7 0.3]); bnet.CPD{2} = tabular_CPD(bnet, 2, [0.8 0.2 0.2 0.8]); bnet.CPD{3} = tabular_CPD(bnet, 3, [0.5 0.5 0.5 0.5]); bnet.CPD{4} = tabular_CPD(bnet, 4, [0.95 0.05 0.05 0.95 0.05 0.95 0.95 0.05]); % 运行 EM 算法进行模型训练 engine = jtree_inf_engine(bnet); [bnet, ll] = learn_params_em(engine, data); ``` 在训练完成后,我们可以使用 BayesNet Toolbox 中的 plot_dag() 函数来可视化模型结构: ```matlab plot_dag(bnet.dag, {'A', 'B', 'C', 'D'}) ``` 最后,我们可以使用训练好的贝叶斯网络模型来进行故障溯源。例如,如果我们观测到故障模式 A 被触发,我们可以通过计算条件概率来推断其他变量的状态: ```matlab % 观测到故障模式 A 被触发 evidence = cell(1, 4); evidence{1} = 1; % 计算其他变量的后验分布 [engine, loglik] = enter_evidence(engine, evidence); marginals = marginal_nodes(engine, [2 3 4]); % 输出结果 disp(['P(B=1 | A=1) = ' num2str(marginals(1).T(2))]); disp(['P(C=1 | A=1) = ' num2str(marginals(2).T(2))]); disp(['P(D=1 | A=1) = ' num2str(marginals(3).T(2))]); ``` 这个程序将计算在观测到故障模式 A 被触发的情况下,B、C 和 D 被触发的后验概率。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值