![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
GNN NLP
文章平均质量分 93
五月的echo
神的孩子全跳舞
展开
-
A Contrastive Learning Approach for Hierarchy Text Classification,ACL2022
IntroductionHierarchical Text Classification(HTC)是指文本标签之间存在层次结构文本分类任务。不同的标签之间存在的潜在关联会为分类提供正向指导。一般来说,HTC大致可以分为两类:为每个节点或级别构建分类器的局部方法,仅为整个图构建一个分类器的全局方法。本文提出一种用于层次文本分类的对比学习方法。Hierarchy guided Contrastive Learning (HGCLR)直接将分层嵌入到文本编码器中而不是单独地创建层次的结构。在训练过程中,HG.原创 2022-04-30 17:10:22 · 1416 阅读 · 2 评论 -
Label-Specific Dual Graph Neural Network for Multi-Label Text Classification,ACL2021 finding
为了提取多标签分类中标签之间的高阶关联性,一些方法使用统计相关性。然而,基于统计的方法有如下缺点:从训练数据中获得的标签对之间的共现模式是不完整的和有噪声的(有的统计特征可能是训练集特有的);在全局中构建标签共现图,这可能会对罕见的标签相关性有偏倚;统计标签相关性可能形成长尾分布,即,一些类别非常常见,而大多数类别有很少的文档。为了解决上述问题,本文提出了一种新的标签特异性对偶图神经网络(LDGN),该网络利用类别信息从文档中学习标签特异性成分,并采用双图卷积网络(dual Graph Convolut.原创 2022-03-25 15:12:52 · 3530 阅读 · 3 评论 -
GNN NLP(16) Hierarchical Multi-label Text Classification with Horizontal and Vertical
EMNLP2021Introduction分层多标签文本分类(HMTC)处理具有挑战性的任务,其中一个实例可以同时分配给多个层次结构的类别。以往的大多数研究要么专注于将HMTC任务简化为一个扁平的多标签问题,忽略了垂直类别相关性,要么利用不同层次上的依赖关系,而没有考虑同一层次上类别间的水平相关性,这不可避免地会导致基本信息的丢失。因此,本文设计了一个松散耦合的图卷积神经网络Loosely Coupled Graph Convolutional Network(LCGCN) 作为表示提取器,以获取单词.原创 2022-02-09 12:07:21 · 1384 阅读 · 0 评论 -
GNN NLP(15) Hierarchical Heterogeneous Graph Representation Learning for Short Text Classification
EMNLP2021.目录MethodWord-Level Component GraphsNode Embedding LearningGraph ConstructionShort Document GraphHierarchical PoolingDynamic Graph LearningExperimentsMethod本文提出了一个基于图神经网络的短文本分类框架,用于捕捉短文本之间的稀疏语义关系。具体来说,提出了两种不同的构图方式:word-level component graphs以及.原创 2022-02-08 19:19:37 · 1460 阅读 · 0 评论 -
GNN NLP(14):Compare to The Knowledge Graph Neural Fake News Detection with External KnowledgeACL2021
本文提出了一种新的端到端图神经模型CompareNet,该模型通过实体将新闻与知识库(KB)进行比较,用于虚假新闻检测。考虑到假新闻检测是与话题相关的,也加入了话题来丰富新闻表现。具体来说,为每个包含主题和实体的新闻构造一个有向异构文档图,然后通过精心设计的实体比较网络将上下文实体表示与相应的基于KB的实体表示进行比较,以捕获新闻内容和KB之间的一致性。目录Fake News DetectionProposed CompareNetDirected Heterogeneous Document Grap.原创 2021-12-08 14:05:05 · 1431 阅读 · 0 评论 -
当GNN遇见NLP(十三) Position Bias Mitigation: A Knowledge-Aware Graph Model for Emotion Cause Extraction
一转眼又好久没更新了。在本文我们介绍一个之前没有看过的新任务:Emotion Cause Extraction (ECE),也就是给定一个上下文,从中寻找情绪子句对应的原因。从直觉来说,大多数带注释的原因子句要么直接位于其相关的情感子句之前,要么就是情感子句本身(如图1所示),因此位置信息是十分重要的,会影响模型的鲁棒性,而现有的方法多是通过相对位置来解决这个问题的,没有图神经网络来得直接。因此,本文提出了一种新的基于图的方法,通过利用常识增强候选子句和情感子句之间的语义依赖关系来显式建模情感触发路径。.原创 2021-11-13 18:50:05 · 1036 阅读 · 0 评论 -
当GNN遇见NLP(十二):Relation-aware Graph Attention Networks with Relational Position Encodings for ER
Method依旧是一篇emotion recognition in conversations (ERC)的文章,因此不对背景进行过多的介绍。因为基于图的神经网络没有考虑话语中包含的顺序信息,本文提出了关系位置编码,为RGAT(关系图注意力网络)提供反映关系图结构的顺序信息。总体的结构如图所示:模型一共分为三部分:contextual utterance embedding, speaker dependencymodeling with position encodings and emotio.原创 2021-10-15 14:05:55 · 756 阅读 · 0 评论 -
当GNN遇见NLP(十一):Directed Acyclic Graph Network for Conversational Emotion Recognition,ACL2021
同上一篇一样,是使用图建模对话情绪识别的论文。本文提出了用有向无环图(DAG)对对话进行编码的方法(DAG-ERC),主要借鉴了ICLR2021发表的工作DAGNN(Directed acyclic graph neural networks.)中的GNN改进策略。DAG-ERC在DAGNN的基础上进行了两个改进:(1)基于说话人身份的关系感知特征转换,以收集信息;(2)上下文信息单元,以增强历史上下文信息。下面就看具体的内容。MethodBuilding a DAG from a Conversat.原创 2021-10-09 12:38:56 · 1311 阅读 · 0 评论 -
当GNN遇见NLP(十):DialogueGCN: A Graph Convolutional Neural Network for ERC, EMNLP2019
目录IntroductionMethodologyContext Independent Utterance-Level Feature ExtractionModelGraph ConstructionFeature TransformationEmotion ClassifierExperimentIntroduction本文探讨Emotion recognition in conversation (ERC)中使用GNN建模对话者的自我依赖和说话者之间的依赖的模型。在多轮对话中,对话人的情绪会随.原创 2021-10-07 19:24:27 · 420 阅读 · 0 评论 -
当GNN遇见NLP(九):Psycholinguistic Tripartite Graph Network for Personality Detection,ACL2021
目录IntroductionApproachNotationsModelIntroduction对于这种人格分类的任务,一般都是从用户在网络上的发帖(post)去估计其人格特征(多标签分类任务)。本文通过心理语言知识的三部图网络TrigNet揭示一个人的语言使用和心理特征之间的联系,并使用图神经网络去建模这种联系。为了减少GAT的计算复杂度,提出了一种新的流图注意网络,该网络只在三部图中相邻节点之间传递消息。之后,将平均后节点表示作为人格分类的最终用户表示。三部图的构建如图所示:一共有三种类型的.原创 2021-07-24 19:06:37 · 609 阅读 · 0 评论 -
当GNN遇见NLP(八):GL-GIN: Fast and Accurate Non-Autoregressive Model for Joint Multiple Intent Detection
全文的标题是GL-GIN: Fast and Accurate Non-Autoregressive Model for Joint Multiple Intent Detection and Slot Filling。目录IntroductionProblem DefinitionApproachSelf-attentive EncoderToken-Level Intent Detection DecoderSlot Filling DecoderIntroduction在对话系统中,意图识别与原创 2021-07-20 09:56:05 · 1054 阅读 · 2 评论 -
当GNN遇见NLP(七):Regularized Graph Convolutional Networks for Short Text Classification,COLING2020
标题IntroductionProposed ApproachGraph ConstructionProduct Query Classification (PQC)Product Title Classification (PTC)Experiments and ResultsImpact of Incorporating Auxiliary GraphsRobustness comparisonEffect of the size of the Labelled Data短文本分类是自然语言处理、社.原创 2021-03-04 10:32:34 · 508 阅读 · 2 评论 -
当GNN遇见NLP(六):Text Level Graph Neural Network for Text Classification,EMNLP2019
我是目录MethodBuilding Text GraphMessage Passing MechanismExperimentsDatasets & BaselinesExperimental ResultsAblation StudyConclusion本文作者来自北大。以往基于GNN的方法主要面临的实际问题是固定语料库级图结构,不支持在线测试,内存消耗大。因此本文提出一种方法,为每个输入文本构建具有全局参数共享的图,而不是为整个语料库构建单个图。通过小窗口来构建图形,这不仅可以提取更多的局原创 2020-06-15 12:37:14 · 2079 阅读 · 12 评论 -
当GNN遇见NLP(五) Sentence-State LSTM for Text Representation,ACL2018 +核心代码详解(pytorch)
本文作者来自Singapore University of Technology and Design以及Department of Computer Science, University of Rochester。虽然本文中没有提到图神经网络的概念,但是从其实际操作上还是被归类为图的空间方法的一种。本文为了克服了BiLSTM局限于顺序文本的缺点,提出了新的模型S-LSTM,利用Recurrent steps在单词之间同时执行本地和全局信息交换,而不是对单词序列进行增量读取。换句话说,S-LSTM为LS原创 2020-05-25 15:25:12 · 1889 阅读 · 6 评论 -
当GCN遇见NLP(四) Recursive Graphical Neural Networks for Text Classification,AAAI2020
本文的主要作者来自腾讯与北大。本文主要是通过提出一种新的递归图形神经网络模型(ReGNN)模型解决GCN随着深度而面临的过平滑的问题。过平滑over-smoothing主要是指在进行多个图卷积之后,同一个连通分量内部的结点会收敛到相同的值。本文使用LSTM动态地决定将聚合的邻居信息的哪一部分传输到上层,从而缓解了过度平滑的问题。此外,为了促进局部和全局信息的交换,设计了全局图级节点。我们分别对单...原创 2020-05-08 21:25:15 · 1179 阅读 · 0 评论 -
当GCN遇见NLP(三) Tensor Graph Convolutional Networks for Text Classification,AAAI2020
文章目录1、Introduction2、Model2.1 Graph Tensor2.2 Text graph tensor constructionSemantic-based graphSyntactic-based graphSequential-based graph2.1 Graph tensor learningPreliminary model: merge edges + GCNT...原创 2020-03-17 16:29:47 · 4009 阅读 · 14 评论 -
当GCN遇见NLP(二) Heterogeneous GAN for Semi-supervised Short Text Classification,EMNLP2019
Introduction本文的作者来自Beijing University of Posts and Telecommunications以及Institute for Infocomm Research, Singapore。本文提出了一种新的基于异构图神经网络的半监督短文本分类方法,有标签的训练数据稀缺的问题提供了一种解决方案。提出了一个灵活的HIN(异构信息网络)框架来建模短文本,它可以...原创 2020-03-16 12:19:22 · 1491 阅读 · 2 评论 -
当GCN遇见NLP(一) Learning Graph Pooling and Hybrid Convolutional Operations for Text Representations,WWW
文本分类简单综述文本分类是NLP里面最基本的任务,LSTM或者CNN的使用是基操。我也曾用过改进的textCNN进行文本分类,确实取得了不错的效果。随着技术的继续发展,Char-level CNN在文本分类上一度取得了state of the art的效果。但是知识库的引入又让文本分类继续得到了提升。基于知识库的文本分类针对短文本中包含特征较少的缺陷,通过引入本文在外部知识库中对应的概念以及上...原创 2020-03-06 11:51:25 · 2438 阅读 · 1 评论