用st-gcn训练自己的数据集

使用自己的数据集训练st-gcn的流程

在这里插入图片描述

1.数据集

数据集要求将相同类别的视频放到同一文件夹
在这里插入图片描述

2.脚本运行demo_old

将文件夹下所有视频转为json格式

import os

dataSet_path = 'D:/dataSet/training_lib_KTH'#修改

for classes in os.listdir(dataSet_path):
    classes_path = os.path.join(dataSet_path, classes)
    if os.path.isdir(classes_path):
        print(classes_path)
        for file in os.listdir(classes_path):
            file_path = os.path.join(classes_path,file)
            str = 'python main.py demo_old --video {}'.format(file_path)
            os.system(str)

3.更改json文件末尾

“label”:“unknow”,“label_index”: -1

改为

“label”:“自己的标签”,“label_index”: 标签下标

注意:第一个标签的下标要从0开始,否则后面会报错

3(2).修改train_label和val_label

这里建议参照以下博客的2.(3)

ST-GCN训练自建数据集

4.后面的步骤

后面的步骤上面博客说的很清楚,但有几个注意点

注意:

  • label_name的行数从第1行开始的,这里的第一行对应的是label_index为0的类别。
  • 数据集视频帧数不要超过300帧,5~6s的视频时长比较好,不要10几s的视频时长。

5.最后的结果

在这里插入图片描述

参考博客

[https://blog.csdn.net/weixin_48159023/article/details/121604637]
在校大学生,课业繁忙,不能及时回复,实在抱歉。

  • 2
    点赞
  • 58
    收藏
    觉得还不错? 一键收藏
  • 29
    评论
训练ST-GCN模型使用自己的数据集,你可以按照以下步骤进行操作: 1. 准备数据集:首先,你需要准备一个包含动作示例的数据集。这个数据集可以是你自己收集的,也可以是从其他来源获取的。确保数据集中的每个示例都包含一个动作的骨骼姿势信息和相应的标签。 2. 提取骨骼姿势:使用AlphaPose或其他类似的工具从视频中提取骨骼姿势。确保你的数据集中包含了每个动作示例的骨骼姿势序列。 3. 标记动作帧:对于每个动作示例,手动标记每个动作帧的标签。这将帮助模型学习动作的时序信息。 4. 数据预处理:对数据集进行预处理,包括将骨骼姿势序列转换为适合ST-GCN模型输入的格式。你可以根据ST-GCN的要求进行相应的处理,比如调整帧数、归一化等。 5. 构建训练集和验证集:将数据集划分为训练集和验证集。训练集用于训练模型的参数,验证集用于评估模型的性能和调整超参数。 6. 训练ST-GCN模型:使用训练集对ST-GCN模型进行训练。你可以使用已经预训练的Tiny-YOLO oneclass-和SPPE模型作为基础模型,然后在此基础上进行微调。 7. 调整超参数:根据验证集的性能,调整模型的超参数,比如学习率、批大小等,以进一步提高模型的性能。 8. 评估模型:使用验证集对训练好的模型进行评估,计算模型在动作识别任务上的准确率或其他指标。 9. 应用模型:一旦模型训练完成并通过验证集的评估,你可以将该模型应用于新的未见过的数据上,进行动作识别任务。 请注意,在训练自己的数据集时,你需要确保数据集的质量和多样性,以获得更好的模型性能。此外,你还可以参考引用中提供的文章链接,了解更多关于ST-GCN模型训练自己的数据集的详细步骤。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 29
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值