行为识别系列:Win11系统下使用SlowFast训练AVA数据集

本文主要讲述如何在Win11系统使用MMaction2框架下SlowFast网络进行AVA数据集的训练

一、环境准备

本文遵照官方教程进行环境准备,官方文档:安装 — MMAction2 1.2.0 文档

本人环境配置如下:python=3.8,cuda=11.1,torch=1.9.1+cu111,torchvision=0.10.1+cu111

conda create -n mmaction python=3.8 -y
pip install torch==1.9.1+cu111 torchvision==0.10.1+cu111 -f https://download.pytorch.org/whl/torch_stable.html

读者可根据自身需要,选择是否安装mmdet和mmpose

1、用mim安装 MMEngineMMCVMMDetection(可选)和 MMPose(可选)

pip install -U openmim
mim install mmengine
mim install mmcv
mim install mmdet
mim install mmpose

2、从源代码构建MMaction2

git clone https://github.com/open-mmlab/mmaction2.git
cd mmaction2
pip install -v -e .

3、检查是否安装正确

mim download mmaction2 --config tsn_imagenet-pretrained-r50_8xb32-1x1x8-100e_kinetics400-rgb --dest .
python demo/demo.py tsn_imagenet-pretrained-r50_8xb32-1x1x8-100e_kinetics400-rgb.py tsn_imagenet-pretrained-r50_8xb32-1x1x8-100e_kinetics400-rgb_20220906-2692d16c.pth demo/demo.mp4 tools/data/kinetics/label_map_k400.txt

如果安装正确,则会在终端看到前5个标签及其对应的分数:

二、数据集准备

在我的另外一篇博客讲过,如何下载及准备AVA数据集。

在YOWOv2框架下使用AVA数据集-CSDN博客文章浏览阅读134次。YOWO框架支持几种主流的数据集包括UCF101-24,AVA等,在之前的文章中已经介绍过UCF101-24复现过程及效果,这篇文章介绍个人复现AVA数据集的效果。https://blog.csdn.net/Yayisheng/article/details/134940573?spm=1001.2014.3001.5501读者亦可以运行mmaction2/tools/data/ava文件夹下脚本进行AVA数据集的下载和准备工作

三、代码修改

复制configs\detection\slowfast文件夹下的slowfast_kinetics400-pretrained-r50_8xb6-8x8x1-cosine-10e_ava22-rgb.py,改名为my_slowfast_kinetics400-pretrained-r50_8xb6-8x8x1-cosine-10e_ava22-rgb.py,并修改如下路径:

修改之后,可直接运行下方代码进行训练,本人训练设备(GTX3070,num_workers=2,batch_size=8),训练时间(eta):190days(时间非常长,推荐使用服务器A100或者更好的显卡)

使用本地显卡推理一轮的效果如下:

{"lr": 0.0075278229742922215, "data_time": 0.26431573629379274, "grad_norm": 2.053718554973602, "loss": 0.33568896576762197, "recall@thr=0.5": 0.2808642089366913, "prec@thr=0.5": 0.364197313785553, "recall@top3": 0.5123457312583923, "prec@top3": 0.4567900002002716, "recall@top5": 0.7530864477157593, "prec@top5": 0.4222221374511719, "loss_action_cls": 0.33568896576762197, "time": 71.26748920679093, "epoch": 1, "iter": 20, "memory": 13673, "step": 20}

  • 20
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
您好!要使用SlowFast模型在AVA(Atomic Visual Actions)数据集上进行训练,可以按照以下步骤进行操作: 1. 数据准备:首先,您需要下载并准备AVA数据集。该数据集包含大量的视频片段,每个片段都有相应的标注,用于描述视频中的动作。您可以从AVADataset官方网站下载数据集,并确保您具有足够的存储空间来存储数据。 2. 数据预处理:在训练之前,您需要对数据进行预处理。这包括将视频分解为单独的帧,并提取光流信息。您可以使用现有的工具或库(如OpenCV)来实现这些步骤。 3. 模型配置:接下来,您需要配置SlowFast模型用于训练SlowFast模型是一种基于两个不同速率的网络结构,用于处理长时间尺度和短时间尺度的动作信息。您可以使用现有的SlowFast模型实现,或者根据您的需求进行自定义。 4. 训练使用预处理后的数据和配置好的模型,您可以开始训练过程。将数据输入模型中,并使用适当的优化算法和损失函数进行训练。您可以根据需要调整训练参数和超参数,例如学习率、批量大小等。 5. 评估和调优:完成训练后,您可以使用评估数据集来评估模型的性能。根据评估结果,您可以对模型进行调优,并尝试进一步提高其准确性和性能。 请注意,以上步骤只是一个基本的概述,具体的实施细节可能会因您的具体需求和环境而有所不同。在实际操作中,您可能还需要考虑数据增强、正则化、模型的保存和加载等其他因素。 希望这些信息对您有所帮助!如果您有其他问题,请随时提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值