小样本学习与图神经网络论文调研

转自知乎@白小鱼[论文清单]小样本学习与图神经网络 - 知乎

要入门某研究方向的最基本方法就是读文献,fighting

该交叉领域工作较多,截至目前在正式期刊会议[2]上有A类文章12篇,B类文章11篇,C类文章4篇。近三年有31篇预印本文章。

正式期刊会议文章

2021

CCF-C

  • Xu Zhang, Youjia Zhang, Zuyu Zhang: Multi-granularity Recurrent Attention Graph Neural Network for Few-Shot Learning. MMM (2) 2021: 147-158

2020

CCF-A

  • Huaxiu Yao, Chuxu Zhang, Ying Wei, Meng Jiang, Suhang Wang, Junzhou Huang, Nitesh V. Chawla, Zhenhui Li: Graph Few-Shot Learning via Knowledge Transfer. AAAI 2020: 6656-6663
  • Riquan Chen, Tianshui Chen, Xiaolu Hui, Hefeng Wu, Guanbin Li, Liang Lin: Knowledge Graph Transfer Network for Few-Shot Recognition. AAAI 2020: 10575-10582
  • Chuxu Zhang, Huaxiu Yao, Chao Huang, Meng Jiang, Zhenhui Li, Nitesh V. Chawla: Few-Shot Knowledge Graph Completion. AAAI 2020: 3041-3048
  • Ling Yang, Liangliang Li, Zilun Zhang, Xinyu Zhou, Erjin Zhou, Yu Liu: DPGN: Distribution Propagation Graph Network for Few-Shot Learning. CVPR 2020: 13387-13396
  • Meng Qu, Tianyu Gao, Louis-Pascal A. C. Xhonneux, Jian Tang: Few-shot Relation Extraction via Bayesian Meta-learning on Relation Graphs. ICML 2020: 7867-7876
  • Jinheon Baek, Dong Bok Lee, Sung Ju Hwang: Learning to Extrapolate Knowledge: Transductive Few-shot Out-of-Graph Link Prediction. NeurIPS 2020
  • Lin Lan, Pinghui Wang, Xuefeng Du, Kaikai Song, Jing Tao, Xiaohong Guan: Node Classification on Graphs with Few-Shot Novel Labels via Meta Transformed Network Embedding. NeurIPS 2020

CCF-B

  • Kaize Ding, Jianling Wang, Jundong Li, Kai Shu, Chenghao Liu, Huan Liu:Graph Prototypical Networks for Few-shot Learning on Attributed Networks. CIKM 2020: 295-304
  • Ning Wang, Minnan Luo, Kaize Ding, Lingling Zhang, Jundong Li, Qinghua Zheng:GraphFew-shot Learning with Attribute Matching. CIKM 2020: 1545-1554
  • Ning Ma, Jiajun Bu, Jieyu Yang, Zhen Zhang, Chengwei Yao, Zhi Yu, Sheng Zhou, Xifeng Yan: Adaptive-Step Graph Meta-Learner for Few-Shot Graph Classification. CIKM 2020: 1055-1064
  • Jueqing Lu, Lan Du, Ming Liu, Joanna Dipnall: Multi-label Few/Zero-shot Learning with Knowledge Aggregated from Multiple Label Graphs. EMNLP (1) 2020: 2935-2943
  • Jiawei Sheng, Shu Guo, Zhenyu Chen, Juwei Yue, Lihong Wang, Tingwen Liu, Hongbo Xu: Adaptive Attentional Network for Few-Shot Knowledge Graph Completion. EMNLP (1) 2020: 1681-1691
  • Guohao Lan, Bailey Heit, Timothy James Scargill, Maria Gorlatova: GazeGraph: graph-based few-shot cognitive context sensing from human visual behavior. SenSys 2020: 422-435
  • Chen Lyu, Weijie Liu, Ping Wang: Few-Shot Text Classification with Edge-Labeling Graph Neural Network-Based Prototypical Network. COLING 2020: 5547-5552

CCF-C

  • Xinyi Tong, Jihao Yin, Bingnan Han, Hui Qv: Few-Shot Learning With Attention-Weighted Graph Convolutional Networks For Hyperspectral Image Classification. ICIP 2020: 1686-1690
  • Tong Wei, Junlin Hou, Rui Feng: Fuzzy Graph Neural Network for Few-Shot Learning. IJCNN 2020: 1-8

SCI期刊

  • Rui Yang, Xin Xu, Xirong Li, Lei Wang, Fangling Pu: Learning Relation by Graph Neural Network for SAR Image Few-Shot Learning. IGARSS 2020: 1743-1746
  • Yuxiang Xie, Hua Xu, Jiaoe Li, Congcong Yang, Kai Gao: Heterogeneous graph neural networks for noisy few-shot relation classification. Knowl. Based Syst. 194: 105548 (2020)

无等级

  • Jatin Chauhan, Deepak Nathani, Manohar Kaul: Few-Shot Learning on graphs via super-Classes based on Graph spectral Measures. ICLR 2020

2019

CCF-A

  • Yue Gao, Yuan Guo, Zhouhui Lian, Yingmin Tang, Jianguo Xiao: Artistic glyph image synthesis via one-stage few-shot learning. ACM Trans. Graph. 38(6): 185:1-185:12 (2019)
  • Jongmin Kim, Taesup Kim, Sungwoong Kim, Chang D. Yoo: Edge-Labeling Graph Neural Network for Few-Shot Learning. CVPR 2019: 11-20
  • Chenrui Zhang, Xiaoqing Lyu, Zhi Tang: TGG: Transferable Graph Generation for Zero-shot and Few-shot Learning. ACM Multimedia 2019: 1641-1649
  • Apoorva Dornadula, Austin Narcomey, Ranjay Krishna, Michael Bernstein, Fei-Fei Li: Visual Relationships as Functions: Enabling Few-Shot Scene Graph Prediction. ICCV Workshops 2019: 1730-1739
  • Lu Liu, Tianyi Zhou, Guodong Long, Jing Jiang, Lina Yao, Chengqi Zhang: Prototype Propagation Networks (PPN) for Weakly-supervised Few-shot Learning on Category Graph. IJCAI 2019: 3015-3022

CCF-B

  • Fan Zhou, Chengtai Cao, Kunpeng Zhang, Goce Trajcevski, Ting Zhong, Ji Geng: Meta-GNN: On Few-shot Node Classification in Graph Meta-learning. CIKM 2019: 2357-2360
  • Mingyang Chen, Wen Zhang, Wei Zhang, Qiang Chen, Huajun Chen: Meta Relational Learning for Few-Shot Link Prediction in Knowledge Graphs. EMNLP/IJCNLP (1) 2019: 4216-4225
  • Xin Lv, Yuxian Gu, Xu Han, Lei Hou, Juanzi Li, Zhiyuan Liu: Adapting Meta Knowledge Graph Information for Multi-Hop Reasoning over Few-Shot Relations. EMNLP/IJCNLP (1) 2019: 3374-3379

CCF-C

  • Shilei Zhang, Yong Qin, Kewei Sun, Yonghua Lin: Few-Shot Audio Classification with Attentional Graph Neural Networks. INTERSPEECH 2019: 3649-3653

无等级

  • Xiaolu Hui, Riquan Chen, Tianshui Chen: Graph attention propagation for few-shot learning. ACM TUR-C 2019: 103:1-103:4
  • Asma Bensalah, Pau Riba, Alicia Fornés, Josep Lladós: Shoot Less and Sketch More: An Efficient Sketch Classification via Joining Graph Neural Networks and Few-Shot Learning. GREC@ICDAR 2019: 80-85

2018

CCF-B

  • I. Mason, Sebastian Starke, He Zhang, Hakan Bilen, Taku Komura: Few-shot Learning of Homogeneous Human Locomotion Styles. Comput. Graph. Forum 37(7): 143-153 (2018)

无等级

  • Victor Garcia Satorras, Joan Bruna Estrach: Few-Shot Learning with Graph Neural Networks. ICLR (Poster) 2018

预印本文章

2021

  • Peixiao Zheng, Xin Guo, Lin Qi:Edge-Labeling based Directed Gated Graph Network for Few-shot Learning. CoRR abs/2101.11299 (2021)
  • Yongchun Zhu, Fuzhen Zhuang, Xiangliang Zhang, Zhiyuan Qi, Zhiping Shi, Qing He:Combat Data Shift in Few-shot Learning with Knowledge Graph.CoRR abs/2101.11354 (2021)
  • Ethan Shen, Maria Brbic, Nicholas Monath, Jiaqi Zhai, Manzil Zaheer, Jure Leskovec:Model-Agnostic Graph Regularization for Few-Shot Learning.CoRR abs/2102.07077 (2021)
  • Zhichun Guo, Chuxu Zhang, Wenhao Yu, John Herr, Olaf Wiest, Meng Jiang, Nitesh V. Chawla:Few-Shot GraphLearning for Molecular Property Prediction.CoRR abs/2102.07916 (2021)
  • Shunyu Jiang, Fuli Feng, Weijian Chen, Xiang Li, Xiangnan He:Structure-Enhanced Meta-Learning For Few-Shot Graph Classification.CoRR abs/2103.03547 (2021)
  • Dora Jambor, Komal K. Teru, Joelle Pineau, William L. Hamilton: Exploring the Limits of Few-Shot Link Prediction in Knowledge Graphs. CoRR abs/2102.03419 (2021)

2020

  • Jatin Chauhan, Deepak Nathani, Manohar Kaul:Few-Shot Learning on Graphs via Super-Classes based on Graph Spectral Measures. CoRR abs/2002.12815 (2020)
  • Ning Ma, Jiajun Bu, Jieyu Yang, Zhen Zhang, Chengwei Yao, Zhi Yu:Few-Shot Graph Classification with Model Agnostic Meta-Learning.CoRR abs/2003.08246 (2020)
  • Ling Yang, Liangliang Li, Zilun Zhang, Xinyu Zhou, Erjin Zhou, Yu Liu:DPGN: Distribution Propagation Graph Network for Few-shot Learning.CoRR abs/2003.14247 (2020)
  • Guangfeng Lin, Ying Yang, Yindi Fan, Xiaobing Kang, Kaiyang Liao, Fan Zhao:High-order structure preserving graph neural network for few-shot learning.CoRR abs/2005.14415 (2020)
  • Jinheon Baek, Dong Bok Lee, Sung Ju Hwang:Learning to Extrapolate Knowledge: Transductive Few-shot Out-of-Graph Link Prediction.CoRR abs/2006.06648 (2020)
  • Kaize Ding, Jianling Wang, Jundong Li, Kai Shu, Chenghao Liu, Huan Liu:Graph Prototypical Networks for Few-shot Learning on Attributed Networks.CoRR abs/2006.12739 (2020)
  • Baoquan Zhang, Ka-Cheong Leung, Yunming Ye, Xutao Li:MetaConcept: Learn to Abstract via Concept Graph for Weakly-Supervised Few-Shot Learning.CoRR abs/2007.02379 (2020)
  • Meng Qu, Tianyu Gao, Louis-Pascal A. C. Xhonneux, Jian Tang:Few-shot Relation Extraction via Bayesian Meta-learning on Relation Graphs.CoRR abs/2007.02387 (2020)
  • Hao Cheng, Joey Tianyi Zhou, Wee Peng Tay, Bihan Wen:Attentive Graph Neural Networks for Few-Shot Learning.CoRR abs/2007.06878 (2020)
  • Jueqing Lu, Lan Du, Ming Liu, Joanna Dipnall:Multi-label Few/Zero-shot Learning with Knowledge Aggregated from Multiple Label Graphs.CoRR abs/2010.07459 (2020)
  • Lin Lan, Pinghui Wang, Xuefeng Du, Kaikai Song, Jing Tao, Xiaohong Guan: Node Classification on Graphs with Few-Shot Novel Labels via Meta Transformed Network Embedding. CoRR abs/2007.02914 (2020)
  • Vassilis N. Ioannidis, Da Zheng, George Karypis: Few-shot link prediction via graph neural networks for Covid-19 drug-repurposing. CoRR abs/2007.10261 (2020)
  • Jiawei Sheng, Shu Guo, Zhenyu Chen, Juwei Yue, Lihong Wang, Tingwen Liu, Hongbo Xu: Adaptive Attentional Network for Few-Shot Knowledge Graph Completion. CoRR abs/2010.09638 (2020)
  • Piotr Koniusz, Hongguang Zhang:Power Normalizations in Fine-grained Image, Few-shot Image and Graph Classification.CoRR abs/2012.13975 (2020)

2019

  • Jongmin Kim, Taesup Kim, Sungwoong Kim, Chang D. Yoo:Edge-labeling Graph Neural Network for Few-shot Learning.CoRR abs/1905.01436 (2019)
  • Lu Liu, Tianyi Zhou, Guodong Long, Jing Jiang, Lina Yao, Chengqi Zhang:Prototype Propagation Networks (PPN) for Weakly-supervised Few-shot Learning on Category Graph.CoRR abs/1905.04042 (2019)
  • Fan Zhou, Chengtai Cao, Kunpeng Zhang, Goce Trajcevski, Ting Zhong, Ji Geng:Meta-GNN: On Few-shot Node Classification in Graph Meta-learning.CoRR abs/1905.09718 (2019)
  • Chenrui Zhang, Xiaoqing Lyu, Zhi Tang:TGG: Transferable Graph Generation for Zero-shot and Few-shot Learning.CoRR abs/1908.11503 (2019)
  • Mingyang Chen, Wen Zhang, Wei Zhang, Qiang Chen, Huajun Chen:Meta Relational Learning for Few-Shot Link Prediction in Knowledge Graphs.CoRR abs/1909.01515 (2019)
  • Huaxiu Yao, Chuxu Zhang, Ying Wei, Meng Jiang, Suhang Wang, Junzhou Huang, Nitesh V. Chawla, Zhenhui Li:GraphFew-shot Learning via Knowledge Transfer.CoRR abs/1910.03053 (2019)
  • Avishek Joey Bose, Ankit Jain, Piero Molino, William L. Hamilton:Meta-Graph: Few shot Link Prediction via Meta Learning.CoRR abs/1912.09867 (2019)
  • Riquan Chen, Tianshui Chen, Xiaolu Hui, Hefeng Wu, Guanbin Li, Liang Lin:
  • Knowledge Graph Transfer Network for Few-Shot Recognition. CoRR abs/1911.09579 (2019)
  • Chuxu Zhang, Huaxiu Yao, Chao Huang, Meng Jiang, Zhenhui Li, Nitesh V. Chawla:Few-Shot Knowledge Graph Completion.CoRR abs/1911.11298 (2019)
  • Xin Lv, Yuxian Gu, Xu Han, Lei Hou, Juanzi Li, Zhiyuan Liu: Adapting Meta Knowledge Graph Information for Multi-Hop Reasoning over Few-Shot Relations. CoRR abs/1908.11513 (2019)
  • Apoorva Dornadula, Austin Narcomey, Ranjay Krishna, Michael Bernstein, Li Fei-Fei: Visual Relationships as Functions: Enabling Few-Shot Scene Graph Prediction. CoRR abs/1906.04876 (2019)
  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
近日,DeepMind 和谷歌联合进行了一项研究,该研究提出了一种执行相似性学习的新型强大模型——匹配网络(GMN),性能优于 GNN 和 GCN 模型。该论文已被 ICML 2019 接收。 DeepMind 和谷歌的这项新研究聚焦检索和匹配结构对象这一极具挑战性的问题,做出了两个重要贡献。 首先,研究者展示了如何训练神经网络(GNN),使之生成可在向量空间中执行高效相似性推理的嵌入。其次,研究者提出了新型匹配网络模型(GMN),该模型以一对作为输入,通过基于跨注意力的新型匹配机制进行联合推理,从而计算它们之间的相似性分数。 研究者证明 GMN 模型在不同领域中的有效性,包括极具挑战性的基于控制流的函数相似性搜索问题,这个问题在检索软件系统的漏洞中起着非常重要的作用。实验分析表明 GMN 模型不止能在相似性学习的环境下利用结构,还能超越针对这些问题手动精心设计的特定领域基线系统。研究主题:相似性学习问题 是编码关系结构的自然表征,常常出现在多个领域中。根据结构数据定义的计算可以用在各种领域中,从计算生物学和化学的分子分析到自然语言理解中知识结构解析的分析都可以。 近几年来,神经网络Graph Neural Network,GNN)已经成为可以有效学习结构数据表征、解决各种基于的监督预测问题的模型了。这样的模型在迭代聚合局部结构信息的传播过程中设计并计算节点表征,从而对元素的排列(permutation)具有不变性。然后直接将这些节点表征用于节点分类,或者将它们合并到用于分类的向量中。而 GNN 在监督分类或回归以外的问题的相关研究相对较少。 DeepMind 的这篇论文研究的是结构对象的相似性学习问题,这个问题在现实生活中有很多重要的应用,尤其是在数据库中基于相似性的搜索。还有一个应用是涉及计算机安全的二元函数相似性搜索,给定的二元函数可能包含有已知漏洞的代码,我们要检查这个二元函数中是否有和已知易受攻击的函数相似的控制流(control-flow-graph)。这有助于识别闭源软件中易受攻击的静态连结函式库,这是一个很常见的问题 (CVE, 2010; 2018),现在还没有很好的解决方法。 1 展示了一个例子,在这个例子中用汇编语言注释的控制流来表示二元函数。这种相似性学习问题极具挑战性,因为就算是之间细微的差别也会造成语义上极大的不同,但结构不同的语义上可能非常相似。因此,对这个问题而言,一个成功的模型应该(1)利用结构;(2)能从的结构和学习到的语义中推导出的相似性。 1:二元函数相似性学习问题。检查两个是否相似需要推理的结构和语义。左边两个控制流对应使用不同编译器编译的相同函数(因此二者比较相似),但右侧对应的是不同函数。 解决方案 为了解决相似性学习问题,该论文研究了 GNN 在这种情况中的使用,探讨了如何用 GNN 将嵌入到向量空间,并学习这种嵌入模型,从而使向量空间中相似的靠近、不相似的分开。这个模型的一个重要特性是它可以将每一个独立地映射到一个嵌入向量,然后在向量空间中执行相似性计算。因此,可以预先计算并索引大型数据库中的嵌入,这样就能用快速的最近邻搜索数据结构(如 k-d 树) 或局部敏感哈希算法 (Gionis et al., 1999) 执行高效的检索。 研究者进一步扩展 GNN,提出新型匹配网络(Graph Matching Networks,GMN)来执行相似性学习。GMN 没有单独计算每个表征,它通过跨注意力机制计算相似性分数,来关联之间的节点并识别差异。该模型依赖成对计算表征,因此它比嵌入模型更强大,并在准确率和计算之间做出了很好的权衡。 研究者在三个任务上评估了 GMN 和基线模型:仅捕获结构相似性的合成编辑距离学习任务(synthetic graph edit-distance learning tas),以及两个现实世界任务——二元函数相似性搜索和网格检索,这两项任务都需要推理结构相似性和语义相似性。在所有任务中,GMN 都比基线和结构不可知(structure agnostic)模型的性能更好。在更详细的模型简化测试中,研究者发现 GMN 始终优于嵌入模型和 Siamese 网络。 该研究的贡献如下: 展示了如何用 GNN 产生用于相似性学习的嵌入; 提出了新型匹配网络(GMN),该网络基于跨注意力匹配来计算相似性; 实验证明,该研究提出的相似性学习模型 GMN 在多个应用中都有良好的表现,比结构不可知模型和现有的手动建立的基线模型都要好。 深度相似性学习 给定两个 G1 = (V1, E1) 和 G2 = (V2, E2),我们需要一个可以计算两之间相似性分数 s(G1, G2) 的模型。每个 G = (V, E) 被表示为节点 V 和边 E 的集合,每个节点 i∈V 都可以和特征向量 x_i 相关联,每条边 (i, j) ∈ E 都可以和特征向量 x_ij 关联起来。这些特征可以表示节点类型、边的方向等。如果一个节点或者一条边不能关联任何特征,那么我们可以将对应向量设置成值为 1 的常量。研究者提出了两个相似性学习模型:一个是基于标准 GNN 的学习嵌入的模型;另一个是更为崭新也更加强大的 GMN。 2 展示了这两个模型:嵌入模型 嵌入模型可以将每一个都嵌入到向量中,然后用向量空间中的相似性矩阵衡量之间的相似性。GNN 嵌入模型包括三个部分:编码器、传播层和聚合器。 匹配网络 匹配网络以一对作为输入,计算它们之间的相似性分数。和嵌入模型相比,匹配模型联合成对计算相似性分数,而不是先将每个独立地映射到向量上。因此,匹配模型可能比嵌入模型更加强大,但它需要额外的计算效率。 匹配网络改变了每个传播层中的节点更新模块,这样不仅可以考虑到每个的边上的聚合信息,还可以考虑到衡量一个中的一个节点和其他中的一或多个节点匹配近日,DeepMind 和谷歌联合进行了一项研究,该研究提出了一种执行相似性学习的新型强大模型——匹配网络(GMN),性能优于 GNN 和 GCN 模型。该论文已被 ICML 2019 接收。 程度的跨匹配向量:以调整的表征,在它们不匹配时放大它们之间的差异。 实验 研究者在三个任务上评估了相似性学习(Graph Similarity Learning,GSL)框架、嵌入模型(GNN)以及匹配网络(GMN)的性能,并将这些模型与其他方法进行了对比。总体上,实验结果表明在相似性学习任务上,GMN 表现优异,而且始终优于其他方法。 学习编辑距离(GED) G1 和 G2 之间的编辑距离即将 G1 变换为 G2 所需的最小编辑操作。通常这些编辑操作包括添加/移除/替换节点和边。编辑距离是衡量之间相似性的自然指标,在相似性搜索中有很多应用。 从下表 1 中可以看出,通过学习特定分布的,GSL 模型的性能优于一般的基线模型,而 GMN 的性能持续优于嵌入模型(GNN)。基于控制流的二元函数相似性搜索 二元函数相似性搜索是计算机安全领域中的重要问题。当我们无法获取源代码时,可以通过二元函数执行分析和搜索,例如在处理商业或嵌入式软件或可疑的可执行程序时。 下 4 展示了具备不同传播步和不同数据设置的不同模型在二元函数相似性搜索任务上的性能。从中,我们可以看到: 嵌入模型和匹配模型的性能随着传播步的增加而持续提升; 在传播步足够的情况下,嵌入模型持续优于基线模型; 匹配模型在所有设置和传播步的情况下都优于嵌入模型。研究者检测了GMN 模型中不同组件的效果,并将 GMN 模型与卷积网络(GCN)、神经网络(GNN)和 GNN/GCN 嵌入模型的 Siamese 版本进行对比。 下表 2 展示了实验结果,表明: GNN 嵌入模型是具备竞争力的模型(比 GCN 模型强大); 使用 Siamese 网络架构基于表征学习相似性要比使用预先指定的相似性指标(Euclidean、Hamming 等)好; GMN 优于Siamese 模型,这表明在计算过程早期进行跨信息交流是非常重要的。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值