【存】Alphapose训练自己的数据集

因为没有搜到相关的资料,所以训练的时候走了很多弯路,现在把整个步骤整理一下:

一、标注图片

        因为只需要关键点数据 ,所以只标注了bbox框和人体关键点,使用的是labelme(这部分网上有很多教程),时间宽裕的话最好把segmentation也标注一下,验证的时候需要分割框的area(但是我没标,用目标检测框的1/2代替了一下)

        标注完图片后将labelme文件转成coco格式,得到一个完整的json文件,考虑到已有的config文件中是测试集和验证集合并的格式,将其分成4:1的格式。

二、训练前的准备

        首先,我是基于.\configs\coco\resnet\256x192_res50_lr1e-3_1x.yaml修改的,如下图所示。我们需要把json文件放在data文件夹下,然后按照格式去修改ROOT和ANN。

        值得注意的是,因为我之前标注的时候每张图都只标注了单人,但在进行detection的时候会生成图中所有人物的矩形框,储存在DET_FILE中,这导致了mAP的值极低,所以我们需要修改DET_FILE,将多余的框全都删除(基本是保留score最高的bbox);另外需要修改area的值,如果只标注了关键点,area的值为0,我们可以通过计算bbox的面积取1/2来大致估算目标人物的area,最后修改的config文件如下图所示。

评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值