cvpr2019图卷积网络必读

基于图卷积的多标签图像识别
多标签图像识别任务就是预测图像中出现的一组目标标签,由于对象通常出现在图片中,因此需要对标签的依赖关系进行建模。以提高识别的性能。为了捕捉和探索这些依赖关系提出了一种基于图卷积网络GCN额多标签分类模型,该模型在对象标签上构建有向图,其中每个节点有标签的词嵌入表示,GCN就是学会将这个图映射到一组相互依赖的目标分类器中,这个分类器可以由另外一个子网络提取的image descriptor 是的整个网络可以端到端的可以训练,提出了中新的re-weighted 方法来建立一个幼小的标签相关矩阵,来指导GCN节点之间的信息传播。
图卷积跟踪
近年来siamese的追踪效果性能良好,现有的siamese方法大多没有充分的利用不同情境下的时空目标的外观进行建模,事实上,spatial-temporal信息可以提供多种特征来增强目标的表示,而上下文对于目标定位的在线适应性非常重要,为了综合利用历史目标失控结构并从上下文信息中获益,本文提出了一种用于高性能视觉跟踪好的图卷积跟踪的方法,具体的说,GCT将两种类型的图卷积网络GCNs合并到一个用于目标外观建模的siamese框架中。
基于边缘特征的图神经网络
边缘特征就是包含关于图的重要信息,然而,目前用于graph learning的最先进的神经网络模型,图卷积网络和图注意力网络,并没有充分的利用好边缘特征,尤其是多维的边缘特征,
图学习网络的半监督学习
GLGCN就是通过将图学习和图卷积结合子在一个统一的网络结构中,学习一种最优的图结构,用于半监督的图表示,主要的优点是,在GLcn中,给定的标签和估计的标签都被合并在一起了,从而可以提供有效的弱监督信息来喜欢图的构造,也便于对位置标签区域进行图卷积运算,
图卷积网络的行为识别

利用skeleton数据进行动作识别是近年来计算机视觉领域的研究热点。以往的研究大多基于固定的skeleton图,只捕捉关节之间的局部物理依赖关系,可能忽略了关节间的隐式关联。为了捕获更丰富的依赖关系,我们引入了一种称为A-link推理模块的编解码器结构,以直接从动作捕获特定于动作的潜在依赖关系,即动作链接。我们还扩展了现有的skeleton图来表示更高阶的依赖关系,即结构链接。将这两种类型的链接结合成一个广义的skeleton图,进一步提出了Actional-Structural
Graph Convolutional Networks
(AS-GCN),它将动作结构图卷积和时间卷积作为基本的构建块,学习动作识别的时空特征。在recognition
head的基础上,增加了一个future pose prediction
head,通过自监督来帮助捕获更详细的动作模式。我们使用两个skeleton数据集,NTURGB+D和Kinetics来验证AS-GCN在动作识别中的有效性。与最先进的方法相比,提出的AS-GCN实现了持续的较大改进。AS-GCN作为一种副产品,在未来的姿势预测中也显示出良好的应用前景。

三维人体姿态回归的语义图卷积网络

CVPR ’19
作者:Long Zhao, Xi Peng, Yu Tian, Mubbasir Kapadia, Dimitris N. Metaxas
摘要:本文研究了学习图卷积网络(GCNs)回归问题。目前GCNs的结构局限于卷积滤波器的小接收域和每个节点的共享变换矩阵。为了解决这些局限性,我们提出了语义图卷积网络(SemGCN),这是一种新型的神经网络结构,用于处理具有图结构数据的回归任务。SemGCN学习捕获语义信息,例如局部和全局节点关系,这些信息在图中没有显式表示。这些语义关系可以通过端到端训练从基本事实中学习,而不需要额外的监督或手工编写的规则。我们进一步研究了SemGCN在三维人体姿态回归中的应用。我们的公式是直观和充分的,因为二维和三维人体姿态都可以表示为编码人体骨骼中关节之间关系的结构化图形。我们进行了全面的研究来验证我们的方法。结果表明,SemGCN在使用的参数减少了90%的情况下,性能仍优于现有的技术水平。
专知 https://mp.weixin.qq.com/s?__biz=MzU2OTA0NzE2NA==&mid=2247512630&idx=1&sn=fea4dd8164fd85e13c30edcae12ac62a&chksm=fc865325cbf1da331c3c2b6bd0e72eb72c978b098cc39ae15ad74db143b28a828829db4ca968&scene=0&xtrack=1&key=e48b29212bec5a94a641ab0a98c9979f107f456919f30adf88423230c485c65865e46f2541ce3016474ddf3a0b9969bad95e15a6805cc5e99abc69ebfa01e414c81a691308f0b64f104b566185bfaa65&ascene=1&uin=MjE2MjUxNzI0NA%3D%3D&devicetype=Windows+10&version=62060739&lang=zh_CN&pass_ticket=QJg4dJ9e5T147MnC%2FZGSdALrJpgK8TcHIJGWN9YbMYG24rYLTL1APdXxWeCWDcLk

  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
很抱歉,我没有找到关于CVPR2022卷积动作识别的相关信息。CVPR2022是计算机视觉和模式识别领域的国际会议,主要涵盖了像分类、目标检测、目标跟踪、点云与语义分割、GAN、超分辨率、人脸检测与识别、动作行为与时空运动、模型压缩和量化剪枝、迁移学习、人体姿态估计等多个方向的内容。但是关于CVPR2022卷积动作识别的具体论文或研究我无法提供。如果您有其他关于CVPR2022的问题,我会尽力帮助您回答。 #### 引用[.reference_title] - *1* *3* [CVPR2022最新106篇论文整理|包含目标检测、动作识别、像处理等32个方向](https://blog.csdn.net/weixin_47196664/article/details/123785328)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [CVPR 2022 最新106篇论文分方向整理|包含目标检测、动作识别、像处理等32个方向](https://blog.csdn.net/Extremevision/article/details/123585539)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值