(13) Multi-person Pose Estimation : PifPaf : CVPR 2019

PifPaf: Composite Fields for Human Pose Estimation


CVPR 2019

reading time : 2019/09/24

papaer address : https://arxiv.org/abs/1903.06593v1

github地址: https://github.com/vita-epfl/openpifpaf


本文提出了2D多人姿态估计自底向上的新方法。在低分辨率,拥挤多人的场景下,检测效果很好。将场的概念从标量个向量扩充到复合场。

PifPaf : Pif (Part Intensity Field) : 定位身体部位。

            Paf(Part Association Field) : 关联身体部件形成完整的人。

方法在低分辨率和拥挤的,混乱,遮挡的场景性能好:由于PAF场使用了更加详细(fine-grained)的信息。使用了Laplace loss回归,其混合了不确定的概念。

结构的特点:a fully convolutional    single-shot    box-free。

常见的几种greedy decoders:Part Affinity Field,Associative,PartsonLab。

 

Part Intensity Fields 

相比于CVPR2017 google的置信图和回归相结合的方法,我们回顾这一技术在复合场领域的语言,使用了一个尺度\sigma,形成了PIF。

复合结构:一个标量:代表置信度。

                  一个向量:指向最近的关节点。

                  另一个标量:关节的size。

所以在每一个位置(i , j),PIF预测了一个置信度c,,一个向量(x,y),一个尺度\sigmaP^{ij}=\left \{ p_{c}^{ij},p_{x}^{ij},p_{y}^{ij},p_{b}^{ij},p_{\sigma }^{ij} \right \}。得到了PIF回归的结果,将其和一个unnormalized Gaussian kernel N with width pσ进行卷积,来创建高分辨率部件置信图:

                                                        f(x,y)=\sum_{ij} p_{c}^{ij}N(x,y|p_{x}^{ij},p_{y}^{ij},p_{\sigma }^{ij})

 Part Association Fields 

 在每一个位置(i , j),PIF预测了一个置信度c,,两个个向量,两个宽度b。PAF表示为a^{ij}=\left \{ a_{c}^{ij},a_{x1}^{ij},a_{y1}^{ij},a_{b1}^{ij},a_{x2}^{ij},a_{y2}^{ij},a_{b2}^{ij}\right \}

这有助于精确地解析附近关节点的联合位置,并将它们解析为不同的注释。

 

loss

 虽然对于一个大的人来说,关节的定位误差可能是很小的,但是对于一个小的人来说,同样的绝对误差可能是一个很大的错误。作者使用L1-type loss。作者提高网络的能力,在SmoothL1或Laplace loss中注入尺度依赖。作者进行了比较。

L=|x-\mu |/b+log(2b)

理解了大概,具体细节要阅读源码。

Greedy Decoding

s(a,\overrightarrow{x}) = a_{c} exp(-\frac{\left \|\overrightarrow{x}-\overrightarrow{a_{1}} \right \|}{b_{1}})f_{2}(a_{x2},a_{y2}) 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值