Alphapose训练自己数据集指南

代码下载

git clone https://github.com/MVIG-SJTU/AlphaPose.git

数据集格式

数据集格式最好使用COCO数据集格式,如果你的当前不是COCO格式的话,可以参考COCO的说明将数据集格式进行修改,网站如下
https://cocodataset.org/#home
运行之前自行编写脚本将自己的数据集转换成COCO格式

更换权重

alphapose默认使用的是yolov3模型作为其检测器,但是这个检测器只能检测人体目标姿态,所以如果你的检测目标不是人的话还需要单独训练一个yolov3或者yolox的权重替换原有的权重,否则alphapose是没办法用的.将训练好的权重放入对应位置detector/yolo/data
去https://github.com/MVIG-SJTU/AlphaPose/blob/master/docs/INSTALL.md 中的Models找到你需要使用的权重并下载

配置

配置文件 这里这个例子

DATASET:
  TRAIN:
    TYPE: 'ConcatDataset'
    SET_LIST:
      - TYPE: 'Mscoco'
        MASK_ID: 0
        ROOT: '/media/disk2/yzy/data_set/all_dataset_yzy_wzh/alphapose_data' # 根路径
        IMG_PREFIX: 'images'  #图像文件夹名称
        ANN: 'annotations/train.json'  #标注文件
        AUG:
          FLIP: true
          ROT_FACTOR: 40
          SCALE_FACTOR: 0.3
          NUM_JOINTS_HALF_BODY: 8
          PROB_HALF_BODY: -1
  VAL:
    TYPE: 'Mscoco'
    ROOT: '/media/disk2/yzy/data_set/all_dataset_yzy_wzh/alphapose_data'
    IMG_PREFIX: 'images'
    ANN: 'annotations/val.json'
  TEST:
    TYPE: 'Mscoco_det'
    ROOT: '/media/disk2/yzy/data_set/all_dataset_yzy_wzh/alphapose_data'
    IMG_PREFIX: 'images'
    DET_FILE: './exp/json/test_det_yolo.json'
    ANN: 'annotations/test.json'
DATA_PRESET:
  TYPE: 'simple'
  SIGMA: 2
  NUM_JOINTS: 33
  IMAGE_SIZE:
  - 256
  - 192
  HEATMAP_SIZE:
  - 64
  - 48
MODEL:
  TYPE: 'FastPose'
  PRETRAINED: ''
  TRY_LOAD: ''
  NUM_DECONV_FILTERS:
  - 256
  - 256
  - 256
  NUM_LAYERS: 50
LOSS:
  TYPE: 'MSELoss'
DETECTOR:
  NAME: 'yolo'
  # CONFIG: 'detector/yolo/cfg/yolov3-spp.cfg'
  # WEIGHTS: 'detector/yolo/data/yolov3-spp.weights'
  CONFIG: '/media/disk2/yzy/behavior_framework/AlphaPose-master/detector/yolo/cfg/yolov3-spp.cfg'
  WEIGHTS: '/media/disk2/yzy/behavior_framework/AlphaPose-master/detector/yolo/data/yolov3-spp.weights'
  NMS_THRES: 0.6
  CONFIDENCE: 0.05
TRAIN:
  WORLD_SIZE: 4
  BATCH_SIZE: 32
  BEGIN_EPOCH: 0
  END_EPOCH: 200
  OPTIMIZER: 'adam'
  LR: 0.001
  LR_FACTOR: 0.1
  LR_STEP:
  - 90
  - 120
  DPG_MILESTONE: 140
  DPG_STEP:
  - 160
  - 190

做好这些准备后 还需要校验coco的校验文件
COCO数据格式的校验文件在:AlphaPose-master/alphapose/datasets/mscoco.py
找到这个文件,
修改这部分内容

CLASSES = ['pig']
   EVAL_JOINTS = [0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13]
   num_joints = 14
   joint_pairs = [[0,1],[4,10],[10,11],[1,2],[3,4],[4,12],[12,13],[2,3],[6,7],[4,5],[8,9],[2,6],[2,7]]

这样通过coco的校验之后 就可以成功训练起模型了

  • 4
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
alphapose是一个用于人体姿态估计的开源项目,它可以用于训练自己的数据集。根据引用\[1\]中的代码,训练使用的是seresnet50模型。你可以参考\[1\]中提供的链接了解更多关于seresnet50的信息。在训练之前,你需要准备好自己的数据集,并进行标注。根据引用\[3\]中的描述,你需要标注人体关键点和边界框。如果时间允许,最好也标注分割框的区域。然后,你可以使用labelme等工具进行标注。在训练之前,你还需要准备好配置文件和预训练模型。根据引用\[2\]中的代码,你可以使用命令行工具来进行训练。具体的命令可以根据你的配置文件和数据集路径进行调整。希望这些信息对你有帮助! #### 引用[.reference_title] - *1* *2* [AlphaPose训练自己的数据集](https://blog.csdn.net/weixin_41012399/article/details/127676854)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [【存】Alphapose训练自己的数据集](https://blog.csdn.net/qq_41777427/article/details/125320640)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值