自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 Pairwise Body-Part Attention for Recognizing HOI(面向HOI识别的成对身体部位注意力机制)

ECCV2018 Author:Hao-Shu Fang,CewuLu摘要在HOI识别中,卷积方法把人的身体看作是一个整体并对整个身体区域给一个统一的注意力机制。他们忽略了人和物体交互时其实是用身体的一部分进行实现的。在本文中,我们认为在HOI中不同的身体部位应该被赋予不同的注意力,而且在不同身体部位中的相关关系应该要进一步考虑。这是因为我们身体部位总是协同运作的。我们提出了一个新的可以学习集中于重要部件和相关关系的成对身体部位注意力模型。我们在模型中引入了一种新的基于注意力的特征选择方法和一种能

2021-06-07 22:41:08 715 1

原创 Interact as You Intend: Intention-Driven HOI Detection

IEEE多媒体汇刊Author:Bingjie Xu, Junnan Li, Yongkang Wong摘要为了与物体交互,人类会根据自己的意图引导注意力和移动身体。具体而言,提出的human intention-driven的HOI检测(iHOI)框架根据人体关节到物体实例的相关距离进行建模。也会利用人体注视来指示在弱监督情况下的参与上下文区域。除此之外,我们采用了一种hard negative采样策略来处理误分组问题。1.介绍以往的工作并没有特别考虑到人类经常表现出有目的的行为,并有意完成任务

2021-06-04 23:06:28 355 2

原创 Learning to Detect Human-Object Interactions

WACV2017 Author:Yu-Wei Chao摘要我们为HOI检测提出一个新的benchmark,HICO-DET。提出一个新模型HO-RCNN。模型的核心是Interaction Pattern,一种描述两个边界框之间空间关系的新型DNN输入。1.介绍本文主要有两个贡献:(1)提出HICO-DET数据集,它提供了超过15w个标注的人-对象对,跨越在HICO中的600个类别,即平均每个类别有250个实例。(2)提出了HO-RCNN,这是一种基于DNN的可以将检测单个bbox扩展到一对

2021-06-02 22:33:50 637 1

原创 Scaling HOI Recognition through Zero-Shot Learning

WACV2018 Author:Liyue Shen摘要尽管最近在全监督学习下改进HOI识别方面取得了进展,但实际的人-物交互空间可能很大,为所有感兴趣的交互获取标签来训练数据是不切实际的。在这项工作中,我们通过零样本学习方法解决了将HOI识别扩展到类别长尾的问题。我们引入了一个分解的HOI检测模型,该模型解开了动词和对象的推理,因此在测试时可以产生新的动词-对象对的检测。1.介绍...

2021-06-01 21:38:16 247

原创 iCAN: 面向HOI检测的以实例为中心的注意力网络

iCAN: (面向HOI检测的以实例为中心的注意网络)摘要我们的核心观点是,在图像的相关部分中一个人或一个物体实例的外观包含有用的线索,这可以促进交互的预测。为了利用这些线索,我们提出了一个以实例为中心的注意力模块,该模块可以根据每个实例的外观动态显现图像中的区域。这种基于注意力的网络允许我们有选择地聚集与识别HOIs相关的特征。介绍...

2021-05-31 16:29:43 680 1

原创 Detecting and Recognizing Human-Object Interactions

Detecting and Recognizing Human-Object Interactions(HOI检测与识别)CVPR2018 Author:Georgia Gkioxari Ross Girshick Piotr Dollar Kaiming He摘要我们提出了一个以人为中心的的新模型。我们的假设是,一个人的外表——姿势、衣着、动作——是定位他们正在互动的物体的有力线索。为了利用这一线索,我们的模型学习根据被探测到的人的外观来预测目标物体位置上特定于动作的密度。我们的模型还会联合检测

2021-05-30 22:07:12 360 3

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除