Graph-based Dependency Parsing with Graph Neural Networks

本文探讨了如何使用图神经网络(GNN)来改进基于图的依赖解析,通过GNN学习节点表示以捕捉高阶信息。实验表明,这种方法在PTB和UD2.2数据集上表现有效。
摘要由CSDN通过智能技术生成

目录

前期准备工作

本文概述

​​​实验

总结


前期准备工作

分数函数:给定句子,解析器首先对所有单词对进行评分,以了解它们如何保持有效的依赖关系,然后使用解码器(例如,贪婪、最大生成树)根据分数来生成完整的依存分析树,所以说分数函数是图形分析中的一个关键组成部分.分数函数依赖于单词对的向量表示;

节点表示:节点表示网络的设计是基于神经网络的解析器中的一个关键问题。关于节点表示的两项显著的前期工作是递归神经网络和biaffine mappings,RNN主要收集语句级信息,但表示忽略与依赖关系结构相关的功能,biaffine mappings通过将一个节点设置支配向量和依赖向量来改进RNN的节点向量表示。
 

本文概述

1,基于节点表示的前期准备工作,我们会想要在节点表示中引入更结构化的知识。比如说biaffine mappings可以编码一阶父子关系,那是否可以编码祖父母、子孙、兄弟信息?
2,在本文中引入了GNN来学习依存分析树的节点表示.GNN是以类似增量的方式提取高阶信息:他是基于上一层的输出计算这一层的节点表示。
3,我们使用GNN构建解析模型。我们处理方式区分支配者和从属者,而不是用不同的权重矩阵来表示出边和入边,所以我们要更新节点表示的新协议。

模型构造

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值