人体姿态估计——IEF

本文介绍了人体姿态估计的一种新框架——交互式误差反馈(IEF)。通过学习多级特征提取器,结合前馈模型和反馈机制,IEF能够逐步修正关节位置的预测。在每个循环中,模型通过预测修正值优化当前输出,最终逼近真实值。使用预训练的卷积网络,如GoogLeNet,调整以适应17个关节的特征提取,并以2D修正值进行训练。在实验中,模型展示出良好的姿态估计性能。
摘要由CSDN通过智能技术生成

人体姿态估计

1.Introduction

主要贡献是提供了一个通用的框架,概况建在关节空间上通过学习多级的特征提取器来描述输入和输出空间中的丰富的结构。通过合并top-down反馈来实现这个框架,在反馈过程中,循环地预测当前估计的错误之处并且进行修正。这个框架被称为IEF。

在IEF中,前馈模型 f f f作用于被增强过的输入空间上,通过将RGB图像 I I I和估计得到的结果 y t y_t yt的视觉特征 g g g连接在一起来预测“修正的值( ε t ε_t εt)”,这样可以使 y t y_t yt更接近真实值 y y y。修正值( ε t ε_t εt)被用到当前的输出上 y t y_t yt来得到 y t + 1 y_{t+1} yt+1并且通过 g g g转换成视觉特征, 接下来被和图像叠加到一起得到新的 f f f的输入 x t + 1 = I ⊕ g ( y t ) x_{t+1}=I⊕g(y_t) xt+1=Ig(yt),然后如此循环下去。这个过程使用输出值 y 0 y_0 y0的猜测值初始化,并且重复至达到预先确定的值时结束。在每个循环中模型被训练到正确的范围内,使用一个范围值来调节 y t y_t yt的原因是因为 x t x_t xt空间是典型的高度非线性空间而且定位修正值应该比较容易学习到。模型可以用下面的公式描述:
ε t = f ( x t ) ε_t = f(x_t) εt=f(xt) y t + 1 = y t + ε t y_{t+1}=y_t+ε_t yt+1=yt+εt x t + 1 = I ⊕ g ( y t

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值