人体姿态关键点检测数据集 2400张 姿态 带标注voc yolo

 人体姿态关键点检测数据集 2400张 姿态 带标注voc yolo

train: . . /train/ images
val: .. /val/ir
mages
kpt_ shape: [12, 3]
flip_idx:[0,1,2,3,4,5,6,7,8,9,10,11]
nc: 6
names: ['fall', ' jump','
s_ wall',' sitting', ' standing', ' wa Iking']
六类:
“跌倒”、
“跳跃”、
‘爬墙”、
“坐
人”
“站”、 “行走’

人体姿态关键点检测数据集

名称

人体姿态关键点检测数据集 (Human Pose Keypoint Detection Dataset)

规模
  • 图像数量:2400张图像。
  • 标注个数:未知,取决于每张图像中的人体姿态关键点数量。
  • 类别:6类行为动作标签。
数据划分
  • 训练集 (Train):通常占总数据的80%左右,约1920张图像。
  • 验证集 (Validation):通常占总数据的20%左右,约480张图像。
数据特点
  • 人体姿态关键点标注:每张图像都包含了人体的关键点位置信息,用于对人体的姿态进行分析和理解。
  • 行为类别标注:除了关键点标注外,还提供了6类行为动作标签,包括“跌倒”、“跳跃”、“爬墙”、“坐”、“站”和“行走”。
应用领域
  • 智能体育监测:可用于监测运动员的动作规范性和风险预警。
  • 医疗健康:辅助诊断老年人或病人的行动能力。
  • 人机交互:改善机器人与人类之间的互动体验。
  • 科研应用:为计算机视觉和模式识别领域的研究提供有价值的数据资源。
1. 安装依赖库

首先,确保安装了必要的依赖库。可以在项目目录中的requirements.txt文件中列出这些依赖库,然后运行以下命令进行安装:

pip install -r requirements.txt

requirements.txt 文件内容示例:

torch==1.10.0
torchvision==0.11.1
pandas==1.3.4
cv2
albumentations==1.1.0
2. 创建数据集

定义一个自定义的数据集类,并创建数据加载器。

import os
import pandas as pd
import cv2
from torch.utils.data import Dataset, DataLoader
from torchvision.transforms import Compose, ToTensor, Normalize, Resize
from albumentations import HorizontalFlip, RandomBrightnessContrast, ShiftScaleRotate, BboxFromMasks, BBoxFormatPASCAL
from albumentations.pytorch import ToTensorV2

# 自定义数据集类
class HumanPoseDataset(Dataset):
    def __init__(self, data_root, annotations_file, transforms=None):
        self.data_root = data_root
        self.annotations = pd.read_csv(annotations_file)
        self.transforms = transforms

    def __len__(self):
        return len(self.annotations)

    def __getitem__(1, idx):
        img_path = os.path.join(self.data_root, self.annotations.iloc[idx, 0])
        image = cv2.imread(img_path)
        kpts = self.annotations.iloc[idx, 1:].values.reshape(-1, 3)  # keypoint坐标
        labels = self.annotations.columns[1:]

        if self.transforms:
            augmented = self.transforms(image=image, keypoints=kpts)
            image = augmented['image']
            kpts = augmented['keypoints']

        return image, kpts, labels

# 图像预处理
def get_transforms():
    """构建预处理函数"""
    _transform = [
        Resize(height=416, width=416, interpolation=cv2.INTER_LINEAR),
        HorizontalFlip(p=0.5),
        RandomBrightnessContrast(p=0.2),
        ShiftScaleRotate(p=0.5, shift_limit=0.0625, scale_limit=0.2, rotate_limit=15),
        Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]),
        ToTensorV2(),
    ]
    return Compose(_transform)

# 创建数据加载器
train_dataset = HumanPoseDataset(
    data_root='path_to_your_train_images',
    annotations_file='path_to_your_train_annotations.csv',
    transforms=get_transforms()
)
val_dataset = HumanPoseDataset(
    data_root='path_to_your_val_images',
    annotations_file='path_to_your_val_annotations.csv',
    transforms=get_transforms()
)

train_loader = DataLoader(train_dataset, batch_size=32, shuffle=True, num_workers=4)
val_loader = DataLoader(val_dataset, batch_size=32, shuffle=False, num_workers=4)
3. 训练YOLOv5模型

使用YOLOv5进行训练。

!git clone https://github.com/ultralytics/yolov5  # 下载YOLOv5代码仓库
cd yolov5

# 使用YOLOv5训练模型
python train.py --weights yolov5s.pt --data path_to_your_data.yaml --name human_pose_keypoint_detection --img 416 --batch 16 --epochs 100 --device 0
  • 数据配置文件:创建一个名为data.yaml的数据配置文件,其中包含训练和验证数据集的信息。
train: path_to_your_train_images
val: path_to_your_val_images
kpt_shape: [12, 3]
flip_idx: [0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11]
nc: 6
names: ['fall', 'jump', 's_wall', 'sitting', 'standing', 'walking']
4. 调整模型
  • 超参数调整:根据实际情况调整模型的超参数,例如学习率、批大小等。
  • 数据增强:增加数据增强策略,如旋转、缩放、翻转等,以提高模型鲁棒性。
5. 预测与评估

完成训练后,可以使用训练好的模型对新的图片进行预测和评估。

from models.experimental import attempt_load
from utils.datasets import ImageList
from utils.torch_utils import select_device, time_synchronized
from utils.plots import plot_results

# 加载模型
device = select_device('0')
model = attempt_load('runs/train/exp/weights/best.pt', map_location=device)  # 加载最佳权重

# 新建数据集
test_dataset = ImageList('path_to_test_images', transform=get_transforms())
test_loader = DataLoader(test_dataset, batch_size=1, shuffle=False, num_workers=4)

# 进行预测
results = []
with torch.no_grad():
    t0 = time_synchronized()
    for i, (x, path) in enumerate(test_loader):
        x = x.to(device)  # 将输入图像转换到设备上
        pred = model(x)[0]  # 获取预测结果
        results += plot_results(pred, path, save=True, show=False)  # 绘制预测结果图

print(f'Time {time_synchronized

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值