AIParsing(TIP2022)-人体解析论文阅读


论文: 《AIParsing: Anchor-Free Instance-Level Human Parsing》
github: https://github.com/31sy/AIParsing

解决问题

目前SOTA实例级人体解析模型使用二阶段基于anchor的检测器,需要设计anchor box,同时缺少像素级分析;为解决这两个问题,作者设计AIParsing包括两部分:anchor-free检测头、边缘引导解析头。
解决问题:
1、基于anchor的检测器对于超参比较敏感;
2、当前全卷积网络不足以预测精细化分割;

算法

人体解析

实例级人体解析可以分为三类:
1、bottom-up
首先预测全部人体解析结果,将解析结果关联不同人体;
2、two-stage top-down
首先检测人体框,依据人体框进行人体解析;需要两个模型;
3、one-stage top-down
与two stage区别在于是否使用end-to-end 方式,过程同样为先检测人体框、后进行人体解析,但仅使用一个模型;

AIParsing

在这里插入图片描述
AIParsing如图3,包括三部分:FPN、实例人体检测头、边缘引导人体实例解析头

FPN

与原始FPN相比,增加P7层,去掉P2层,可用于处理大目标,作者统计CIHP、MHP2.0数据集发现74%、86%目标尺寸大于该图片尺寸10%;

检测头

为减少anchor设计超参,作者使用anchor free检测器 FCOS

边缘引导解析头

损失函数包括检测头损失,预测头损失,精细化头损失
检测头损失如式2所示,
在这里插入图片描述
图3中人体部件上下文编码提供丰富上下文信息,有利于区分人体部件;
预测头包括预测部件分割及部件边缘轮廓;如式3、4
在这里插入图片描述
在这里插入图片描述
精细化头包括两部分:rescoring子网络估计mIoU得分,如图3;预测分割结果与gt计算mIoU损失;如式5
在这里插入图片描述

实验

SOTA实验
CIHP数据集实验结果如表1所示,
在这里插入图片描述
MHP v2.0数据集实验结果如表2所示,
在这里插入图片描述
VIP数据集实验结果如表3所示,
在这里插入图片描述
二阶段CIHP在mIoU上达到SOTA,但在AP性能表现不佳,CIHP对实例难区分,可能由于二阶段未利用检测器信息;

消融实验结果如表6所示
在这里插入图片描述
推理耗时情况如表9,其中AIParsing-light表示backbone及head卷积层channel减半;
在这里插入图片描述
失败案例如图7,一些高度重叠人体、距离近的人体以及与背景接近的人体实例区域;
在这里插入图片描述

结论

本文提出的AIParsing,融合anchor-free检测头以及边缘引导解析头,在实例级评估指标下达到SOTA性能;

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值