(基于部分亲和域的实时多人二维姿态估计论文摘要部分)Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields

1、摘要

我们提出了一种有效检测图像中多个人的二维姿态的方法。这种方法使用了一种非参数表示法,我们称之为部分亲合域(pafs) ,来学习将图像中每个人的身体部位联系起来。 在这里插入图片描述(提到这个PAF先介绍一下提出该方法的思路:图(a)是已知关键点红色和蓝色之后,所有可能的连线结果。图(b)是一种通过额外检测出一个红蓝关键点之间的中间点(黄色)来确定他们之间的联系,但是在人位置过于集中时很容易产生错误的联系。因此本文提出(c)方法,在红蓝关键点之间预测一种新颖的特征表示,称作part affinity field(PAF),用2D向量同时可以表示肢干所在位置及方向。)*[这部分可参考这位作者](https://zhuanlan.zhihu.com/p/79594205?from_voters_page=true
然后如下图,其中j表示关键点,k表示图中第k个人,X表示关键点的位置。
在这里插入图片描述
以上公式可以理解为,对于点P,如果P在第k个人的肢体c上,那么在P点处置为向量V,否则为0。其中v = (xj2,k − xj1,k)/||xj2,k −xj1,k||2,即两个关键点之间的单位向量(||xj2,k −xj1,k||2为范数也就是模,这样就是单位向量)。
根据如下公式判断P点在不在肢体c上 :
[公式] 表示两个关键点之间的长度:lc,k = ||xj2,k − xj1,k||2, [公式] 表示肢体的宽度(不知道这个值怎么得到的,论文里没有提)。
lc,k表示两个关键点之间的长度:lc,k = ||xj2,k − xj1,k||2,在这里插入图片描述 表示肢体的宽度(不知道这个值怎么得到的,论文里没有提)。根据上面的图形就很好理解这个公式。
多人的肢体重合的情况有公式在这里插入图片描述
nc§ 表示在位置P处不为零的vector的个数。k为在P位置重叠的人的个数。
测试时只得到了很多肢体向量,那么如何衡量两个关键点之间的关联程度?这里用到了线积分,对于两个候选部位位置dj1和dj2,我们从PAFs中取样,Lc表示的是沿着线段去衡量它们间联系的置信度:在这里插入图片描述
其中p(u)是在两个身体部位dj1和dj2间插入的位置,实际上,我们通过抽样和求和等间距的u的值来近似积分。

该体系结构对全局上下文进行编码,允许贪婪的自下而上的解析步骤,在实现实时性能的同时保持高精度,而不考虑图像中的人数。该体系结构旨在通过同一序列预测过程的两个分支联合学习零件位置及其关联。我们的方法在首届COCO 2016关键点挑战赛中排名第一,在性能和效率方面都大大超过了之前MPII多人测试的最新结果。
(自下而上和自上而下:先说说自下而上研究的优势。自下而上的研究看起来更像是白盒研究,通过模拟来了解智能真正的机制。而自上而下的研究像是黑盒研究,更多的需要去猜测或者尝试来达到同样的功能。如果能够猜出结构当然最好,但如果黑盒非常复杂,猜出结构是很难的。模仿其复杂行为也是很困难的。但同时,自上而下的研究也非常具有指导意义,其了解了人脑不同区域是有分工的,输入输出的处理使用了大部分大脑。自上而下的研究也积累了很多经验,可以用来验证强人工智能的能力。详见

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

位沁

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值