MMAction2 01 - cutsom数据集(ing)

1.视频to图像

video2img.sh脚本

待师弟填坑

2.proposal自动生成

行为识别 <–> 人的行为 ==> 框person

利用目标检测算法,将图像帧中person识别出来,并导出box信息。

 参数说明:
 
 --input ../../Datasets/Interaction/images/train/*/*.jpg  需要生成 proposal.json 文件的图片路径
 --output --output ../../Datasets/Interaction/anno  生成 proposal.json 文件的保存路径
 
 --det-config   ./mywork/faster_rcnn_0_fpn_2x_coco.py   person检测模型配置文件     
 --det-checkpoint ../../Checkpoints/mmdetection/faster_rcnn_r50_fpn_2x_coco_bbox_mAP-0.384_20200504_210434-a5d8aa15.pth   person检测模型权重文件 

使用脚本detection2_outvia3.py,执行如下命令:

python mywork/detection2_outvia3.py ./mywork/faster_rcnn_0_fpn_2x_coco.py ../../Checkpoints/mmdetection/faster_rcnn_r50_fpn_2x_coco_bbox_mAP-0.384_20200504_210434-a5d8aa15.pth --input ../../Datasets/Interaction/images/train/*/*.jpg --gen_via3 --output ../../Datasets/Interaction/anno --score-thr 0.5 --show

如果有报错,注意输入输出的路径!!!
在这里插入图片描述
完成后,可以在Datasets/Interaction/anno文件夹中查看到如下文件
在这里插入图片描述

3.via标注工具下载与使用

3.1 下载

官网:https://www.robots.ox.ac.uk/~vgg/software/via/

3.2 解压

解压后如下图所示,打开via_image_annotator.html文件
在这里插入图片描述

3.3 使用

由于AVA数据十分庞大,硬盘和GPU都十分吃力,立即推 ~ 坚决不放弃

我们采用mini版的Interaction数据集:http://cvrc.ece.utexas.edu/SDHA2010/Human_Interaction.html

数据集格式如下:

└── Interaction
       ├── annotations    
       |   ├── train/seq1.joson+seq1_proposal.json 
       |   ├── test/seq5.joson+seq5_proposal.json 
       └── images   
           ├── train/seq1/seq1_00003.jpg
           ├── test/seq5/seq5_00003.jpg

待完善~

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Albot-CV

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值