1.首先最明确的一点就是修改需要检测关键点的个数,COCO数据集姿态识别的关键点个数是17,而FashionAI数据集的总个数是24个,但是不同的服装类别的个数不一样,比如blouse有13个点,但是如果生成24个heatmap,就会至少有11个heatmap是没用的,这样导致GPU内存增大,又使得loss不能很好的传递训练,因此最好分别对每个单类别进行训练
2.测评要求不一样,FashionAI的测评只对可见点的效果进行测评,而COCO姿态识别的要求是可见点和不可见点,因此我们在用
CPN中的OHKM方法时一定要记得把对难检测点的范围定义改成可见点里面的难检测点,之前CPN对难检测点范围的定义是可见点与不可见点。对ohkm进行回顾,这种方法其实就是在计算每个关键点的MSE loss值,然后找top k个loss值最大的点,只根据这top k个点的loss对网络进行梯度回传,这样对整个网络的训练就有针对性是对“难关键点”的训练。
3.FahsionAI数据集没有给bbox groundTruth,因此需要自己去检测
4.关于heatmap的大小这里需要强调一下,刚开始把输入的图片resize到了256×256的大小了,因此输出的heatmap的大小都是64×64,而这个大小的heatmap对FashionAI数据集就太小了,误差就比较大,因为FashionAI的原图像素比较高512×512,而64×64再换算到原图大小使得精度不高,因此还需要增大heatmap的大小,我把heatmap增大到了96×96
开了一个技术交流的公众号,里面记录一些在学习有关深度学习,推荐系统与机器学习过程中的笔记与心得,欢迎关注~