图卷积网络有关的工作

**Multi-Label Image Recognition with Graph Convolutional Networks **
多标签图像识别的任务就是预测图像中出现的一组目标标签,,我们可以对标签依赖关系进行建模,提高识别性能,为了捕捉和探索这些重要的依赖关系,我们提出了一种基于图卷积网络多标签分类模型,该模型将这个标签图映射到一组相互依赖的目标分类器中,这些分类器应用由另一个子网络提取的image descriptor 。整个网络端到端训练,建立一种新的re-weighted方法建模建立一个有效的标签相关矩阵,指导GCN节点之间的信息传播,
在这里插入图片描述
网址:
http://openaccess.thecvf.com/content_CVPR_2019/papers/Chen_Multi-Label_Image_Recognition_With_Graph_Convolutional_Networks_CVPR_2019_paper.pdf
图卷积追踪
近年来,siamese网络的跟踪性能很好,现有的siamese方法大都没有充分利用不同情境下的时空目标外观建模,事实上,spatial-temporal信息可以提供多种特征来增强目标的表示,而上下文信息对于目标的在线适应非常重要,为了综合利用历史目标样本时空结构并从上下文信息中获益,本文提出了一种用于高性能视觉追踪的图卷积跟踪的方法,具体的说,GCT将两种类型的图卷积网络GCNs合并到一个用于目标的外观建模的siamese框架中,采用时空GCN对历史的目标范畴的结构化表示进行建模,此外还涉及一个上下问的gan,利用当前帧的上下文信息学习目标定位的自适应特征。
在这里插入图片描述
网址:
http://openaccess.thecvf.com/content_CVPR_2019/papers/Gao_Graph_Convolutional_Tracking_CVPR_2019_paper.pdf
Exploiting Edge Features for Graph Neural Networks(基于边缘特征的图神经网络)
边缘特征包含图的重要信息,然而,目前用于graph learning的最前进的神经网络模型,图卷积网络和图注意力网络,并没有充分利用边缘特征,尤其是多边缘特征。本文中,我们为一系列新的图神经网络模型建立一个新的框架,可以更好地利用边缘的特征,包括无向和多维的边缘,,包括那些无向或多维的边缘。该框架可以对现有的图神经网络模型(如GCN和GAT)进行整合。我们提出的框架和新模型具有以下新颖之处:首先,我们建议使用图边缘特征的双重随机归一化方法,而不是目前图神经网络中常用的行或对称归一化方法。其次,我们为每一层的操作构造新的公式,使它们能够处理多维的边缘特征。第三,对于提出的新框架,边缘特征是跨网络层自适应的。第四,提出利用多维边缘特征对边缘方向进行编码。因此,我们提出的新框架和新模型能够利用丰富的图边缘信息资源。将新模型应用于多个citation network的节点分类、全图分类和多个molecular数据集的regression。与目前最先进的方法相比,即该模型取得了较好的性能,证明了在图神经网络中利用边缘特征的重要性。
在这里插入图片描述
http://openaccess.thecvf.com/content_CVPR_2019/papers/Gong_Exploiting_Edge_Features_for_Graph_Neural_Networks_CVPR_2019_paper.pdf
semi-supervised learning with Graph Learning-convolutional Network(图学习卷积网络的半监督学习)
图卷积神经网络在图形数据表示和半监督学习任务中得到广泛应用,然而,现有的图神经网络一般使用固定的图,对于半监督的学习任务可能不是最优的,本文提出一种新的Graph Learning—Convolution Network ,用于图数据表示和半监督学习,GLCN的目标是通过将图学习和网络结合在一个统一的网络中,学习一种最优的图结构。用于半监督学习表示,主要优点是,在GLCN中,给定的标签和估计的标签合并在一起,从而可以提高弱监督信息来细化图的构造,也便于对未知标签估计进行图卷积运算,在7个baseline上的实验表明,GLCN的性能明显优于传统的基于固定结构的graph cnns、
在这里插入图片描述
http://openaccess.thecvf.com/content_CVPR_2019/papers/Jiang_Semi-Supervised_Learning_With_Graph_Learning-Convolutional_Networks_CVPR_2019_paper.pdf
图卷积网络的行为识别
利用skeleton数据进行动作识别是近年来计算机视觉领域的研究热点,以往的研究大多基于固定的skeleton图,捕捉关节之间的局部物理关系,可能忽略了关节之间的隐式关联,为了捕捉丰富的关联关系,我们引入了一种a_lin推理模块的编解码结构,直接从动作捕捉特定于动作潜在依赖关系,动作连接。我们还扩展了现有的skeleton图,进一步提出了actional structural Graph convolutinal network ,将动作结构图卷积和时间卷积作为基本的结构构架图,学习动作识别的时空特征,在recognition head的基础上,增加了一个pose prediction head 通过自监督来帮助捕获更详细的动作模式,使用两个skeleton数据集,nturgb+d和kinetics 来验证asGCN在动作识别中的有效性
在这里插入图片描述
https://arxiv.org/abs/1904.12659
6、GCAN: Graph Convolutional Adversarial Network for Unsupervised Domain Adaptation(GCAN: 用于无监督域自适应的图卷积对抗网络)

CVPR ’19
作者:Xinhong Ma, Tianzhu Zhang, Changsheng Xu
摘要:为了在源域和目标域之间架起桥梁进行域适应,有三种重要的信息类型:数据结构、域标签和类标签。现有的域适应方法大多只利用一种或两种类型的上述信息,不能使它们相互补充和增强。与现有的方法不同,我们提出了一种端到端图卷积对抗网络(GCAN),通过在统一的深度模型中对数据结构、域标签和类标签进行联合建模,实现无监督域自适应。我们提出的GCAN模型有几个优点。首先,据我们所知,这是第一次将这三种信息联合建模到一个用于无监督域自适应的深度模型中。其次,该模型设计了structure-aware alignment、domain alignment和class centroid alignment三种有效的alignment机制,能够有效地学习域不变和语义表示,减少域间的差异,进行域自适应。在五个标准benchmark上的大量实验结果表明,该算法具有良好的性能并且可以对抗目前最先进的无监督域自适应方法。
在这里插入图片描述
http://openaccess.thecvf.com/content_CVPR_2019/papers/Ma_GCAN_Graph_Convolutional_Adversarial_Network_for_Unsupervised_Domain_Adaptation_CVPR_2019_paper.pdf
7、Skeleton-Based Action Recognition with Directed Graph Neural Networks(基于skeleton的有向图神经网络动作识别)
CVPR ’19
作者:Lei Shi, Yifan Zhang, Jian Cheng, Hanqing Lu
摘要:由于skeleton数据能较好地适应动态环境和复杂背景,在动作识别任务中得到了广泛的应用。在现有的方法中,skeleton数据中的关节和骨骼信息都被证明对动作识别任务有很大的帮助。然而,如何结合这两种类型的数据,最好地利用关节和骨骼之间的关系仍然是一个有待解决的问题。在这项工作中,我们将skeleton数据表示为一个有向无环图(DAG),基于人体关节和骨骼之间的运动依赖性。设计了一种新的有向图神经网络,用于提取关节、骨骼及其相互关系的信息,并根据提取的特征进行预测。此外,为了更好地拟合动作识别任务,在训练过程的基础上对图的拓扑结构进行自适应处理,取得了显著的改善。此外,利用skeleton序列的运动信息与空间信息相结合,进一步提高了two-stream框架的性能。我们的最终模型在两个大型数据集上进行了测试,NTU-RGBD和Skeleton-Kinetics,并在这两个数据集上都超过了最先进的方法
在这里插入图片描述
http://openaccess.thecvf.com/content_CVPR_2019/papers/Shi_Skeleton-Based_Action_Recognition_With_Directed_Graph_Neural_Networks_CVPR_2019_paper.pdf
8、Semantic Graph Convolutional Networks for 3D Human Pose Regression(三维人体姿态回归的语义图卷积网络)

CVPR ’19
作者:Long Zhao, Xi Peng, Yu Tian, Mubbasir Kapadia, Dimitris N. Metaxas
摘要:本文研究了学习图卷积网络(GCNs)回归问题。目前GCNs的结构局限于卷积滤波器的小接收域和每个节点的共享变换矩阵。为了解决这些局限性,我们提出了语义图卷积网络(SemGCN),这是一种新型的神经网络结构,用于处理具有图结构数据的回归任务。SemGCN学习捕获语义信息,例如局部和全局节点关系,这些信息在图中没有显式表示。这些语义关系可以通过端到端训练从基本事实中学习,而不需要额外的监督或手工编写的规则。我们进一步研究了SemGCN在三维人体姿态回归中的应用。我们的公式是直观和充分的,因为二维和三维人体姿态都可以表示为编码人体骨骼中关节之间关系的结构化图形。我们进行了全面的研究来验证我们的方法。结果表明,SemGCN在使用的参数减少了90%的情况下,性能仍优于现有的技术水平。
在这里插入图片描述
https://arxiv.org/abs/1904.03345
https://github.com/garyzhao/SemGCN

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值