NLP - 依存句法分析、句子歧义

本文讨论了语言结构的两种主要观点:短语结构语法和依存结构。前者如上下文无关文法(CFGs)描述嵌套短语,后者通过词与词之间的关系直接表示句子结构。文章介绍了如何处理非投影性,以及依赖句法分析方法,如动态规划、图算法和机器学习驱动的解析器,如MaltParser和transition-basedparsing的应用。
摘要由CSDN通过智能技术生成

1. 语言结构的两种观点

  1. Constituency = phrase struct grammar = context-free grammars(CFGs)
  2. Dependency structure

对于context-free grammars(CFGs)

短语结构(Constituency):短语结构语法是一种描述语言结构的方法,它将句子划分为短语(phrase)的组合。根据短语结构语法的观点,句子由短语构成,而这些短语又由更小的短语或单词组成。

  • w o r d s − > p h r a s e s − > b i g g e r p h r a s e s words -> phrases -> bigger phrases words>phrases>biggerphrases

上下文无关文法(CFGs):上下文无关文法是一种形式化的语法模型,用于描述一类语言的结构(嵌套短语)。它基于一组规则,其中每个规则指定了一个非终结符(可以被进一步展开的符号)如何被替换为终结符(不可再展开的符号)或其他非终结符。

  • 举例: 举例: 举例:
    E x p r − > E x p r + E x p r Expr -> Expr + Expr Expr>Expr+Expr
    E x p r − > E x p r ∗ E x p r Expr -> Expr * Expr Expr>ExprExpr
    E x p r − > ( E x p r ) Expr -> (Expr) Expr>(Expr)
    E x p r − > n u m Expr -> num Expr>num

在这里插入图片描述
在这里插入图片描述

Det 指的是 Determiner, 在语言学中的含义为 限定词
P 指的是 Preposition,在语言学中的含义为 介词

NP 指的是 Noun Phrase, 在语言学中的含义为 名词短语
VP 指的是 Verb Phrase, 在语言学中的含义为 动词短语
PP 指的是 Prepositional Phrase, 在语言学中的含义为 介词短语

举例:

在这里插入图片描述

总结:

在自然语言中,将句子处理为constituency grammar,constituency grammar的标准形式是context-free grammars。还有其他的方法,比如说tree adjoining grammars等。
但是在计算机语言中,另一种dependency structure看待方式最常见。

对于Dependency structure

依存结构(Dependency Structure) 是一种描述语言结构的语法表示方法,它关注词与词之间的依存关系
它不是使用各种类型的短语,而是直接通过单词与其他的单词关系表示句子的结构,显示哪些单词依赖于(修饰或是其参数)哪些其他单词。
在这里插入图片描述

look 是整个句子的根,look 依赖于 crate (或者说 crate 是 look 的依赖)
o in, the, large 都是 crate 的依赖
o in the kitchen 是 crate 的修饰
o in, the 都是 kitchen 的依赖
o by the door 是 crate 的依赖

为什么我们需要句子结构?

为了能够正确的解释语言。因为一个句子常常出现一下错误:

介词短语依附歧义

在这里插入图片描述

San Jose cops kill man with knife

  • 警察用刀杀了那个男子
    • cops 是 kill 的 subject (subject 指 主语)
      man 是 kill 的 object (object 指 宾语)
      knife 是 kill 的 modifier (modifier 指 修饰符)
  • 警察杀了那个有刀的男子
    • knife 是 man 的 modifier (名词修饰符,简称为 nmod)

中文一般不会出现这种问题,因为中文的介词短语通常位于动词的前面。

在这里插入图片描述

board 是 approved 的 主语,acquisition 是 approved 的谓语

上述句子中有四个介词短语
by Royal Trustco Ltd. 是修饰 acquisition 的,即董事会批准了这家公司的收购
of Toronto 可以修饰 approved, acquisition, Royal Trustco Ltd. 之一,经过分析可以得知是修饰 Royal Trustco Ltd. 即表示这家公司的位置
for $27 a share 修饰 acquisition
at its monthly meeting 修饰 approved , 即表示批准的时间地点
面对这样复杂的句子结构,我们需要考虑指数级的可能结构,这个序列被称为 Catalan numbers

Catalan numbers : C n = ( 2 n ) ! / [ ( n + 1 ) ! n ! ] :C_n=(2n)!/[(n+1)!n!] :Cn=(2n)!/[(n+1)!n!]

协调范围模糊

在这里插入图片描述

形容词修饰语歧义

在这里插入图片描述

例句:Students get first hand job experience

  • first hand 表示 第一手的,直接的,即学生获得了直接的工作经验
    - first 是 hand 的形容词修饰语(amod)
  • first 修饰 experience, hand 修饰 job 😏😏😏😏

动词短语依存歧义

在这里插入图片描述

例句:Mutilated body washes up on Rio beach to be used for Olympic beach volleyball.

  • to be used for Olympic beach volleyball 是 动词短语(VP)
  • 修饰的是 body 还是 beach ?

依存路径识别语义关系

在这里插入图片描述
.
.

2. 依存语法和依存结构

依存语法 假设 句法结构包括词汇项之间的关系,通常是二元不对称关系,称为依赖关系,用箭头表示。
在这里插入图片描述

箭头通常标记为语法关系的名称(主题、介词对象、apposition等)。
依赖关系的获取一般参考 通用依赖(universal dependency)。
箭头连接 头部(上级)依赖(下属)

  • A -> 依赖于 A 的事情

通常,依赖关系形成一棵树(单头、无环、连接图)

在这里插入图片描述

我们通常添加一个 假ROOT 指向整个句子的root ,因此句子里的每个词都可以依赖于句子中的另一个词 或 句子的假ROOT。
后面构建解析时,会用到。

自然语言处理并开始构建依存语法

构建通用依赖关系(Universal Dependencies):

我们想要拥有一个统一的、并行的依赖描述,可用于任何人类语言。

  • 以前 手工编写语法(grammar) 然后训练得到可以解析句子的解析器
  • 用一条规则捕捉很多东西真的很有效率,但是事实证明这在实践中不是一个好主意
    • 只是为一个特定的解析器编写语法,可重用性差
    • 语法规则符号越来越复杂,并且没有共享和重用人类所做的工作
  • 句子结构上的 treebanks 支持结构更有效
带注释数据的兴起

Treebank是一个包含大量句子的语料库,每个句子都进行了句法分析,并标注了依存关系。这些标注的句法结构提供了从句子中提取依存关系的基础数据。

通过使用Treebank,研究人员可以分析不同语言中的句法结构,并从中提取共性和普遍性的依存关系模式。他们可以识别出常见的依存关系类型、确定词语之间的依存关系,以及捕捉不同语言中的语法规律。

  • 从一开始,构建 treebank 似乎比构建语法慢得多,也没有那么有用
  • 但是 treebank 给我们提供了许多东西
    • 具有高度可重用性
      • 许多解析器、词性标记器等可以构建在它之上
    • 能够获得更多关于句子的统计信息,如频率和分布信息
    • 是一种评估系统的方法,为特定句子选择正确的解析器(评估解析器准确度)

通过treebank可以获得通用依赖关系,一旦有了依赖关系,我们如何构建解析器?

为了构建一个准确的依赖项解析器,除了已经有了依赖关系的标注数据外,还需要其他信息来源,这是因为:

  • 数据稀疏性: Treeband 依赖关系标注数据可能是有限的,特别是对于某些特定语言或领域而言。在这种情况下,单纯依靠标注数据可能无法涵盖所有语言结构的变化和复杂性。额外的信息来源可以帮助解析器学习更全面、更准确的依赖关系。
  • 上下文信息: 依赖项解析需要考虑句子中的上下文信息,而单独的依赖关系标注数据往往只提供了局部的依赖关系信息。通过引入其他信息来源,例如语法规则、语言模型或词汇语境等,可以帮助解析器更好地理解句子的整体结构和上下文关系。
  • 错误修正和噪声处理: 标注数据可能存在错误或噪声,这可能导致依赖项解析器学习到不正确的依赖关系。通过利用其他信息来源,可以帮助检测和修正标注数据中的错误,提高解析器的准确性。
  • 泛化能力: 依赖项解析器的目标是能够适应新的、未标注的句子,而不仅仅是标注数据中的例子。额外的信息来源可以提供更广泛的语言知识和特征,帮助解析器泛化到新的句子并进行准确的解析。
    |||
    V

依赖项解析的信息来源是什么?

  1. Bilexical affinities(两个单词间的密切关系)
    • [discussion → \to issues] 是可能的
  2. Dependency distance(依赖距离)
    • 依赖项主要是邻近词
  3. Intervening material(介于中间的物质)
    • 依赖很少跨越介于中间的动词或标点符号
  4. Valency of heads(中心词的价位)
    • 一个中心词通常在哪一侧有多少依赖项?

在这里插入图片描述
|||
V

有了这些依赖项解析的信息,我们怎么使用这些信息来构建解析器?

通过为每个单词选择它所依赖的其他单词(包括根)来解析一个句子

  • 通常有一些限制
    • 只有一个单词是依赖于根的
    • 不存在循环 A → B , B → A A\to B,B\to A AB,BA
  • 这使得依赖项成为树
  • 箭头是否可以交叉?
    • 箭头(依赖关系)通常是不允许交叉的,这被称为投射性(projectivity)
    • 非投射性(non-projective) 依赖结构中,箭头可以交叉(下面这个例子)

在这里插入图片描述

投射性(projectivity)

投射性(projectivity):当单词按线性顺序排列时,没有交叉的依赖弧,所有的弧都在单词的上方

  • 用CFG树表示的依赖关系必须是投影的
    • 通过将每个类别的一个子类别作为头来形成依赖关系
  • 依赖理论通常允许 非投射(non-projective)结构 来解释移位的成分
    • 如果没有这些非投射依赖关系,就不可能很容易获得某些结构的语义
      在这里插入图片描述

.

3. 依存句法分析方法

如何构建解析器?

  1. Dynamic programming
    • Eisner(1996)提出了一种复杂度为 O ( n 3 ) O(n^3) O(n3) 的聪明算法
    • 它生成头部位于末尾而不是中间的解析项
  2. Graph algorithms
    • 为一个句子创建一个最小生成树
    • McDonald et al:s (2005) MSTParser 使用ML分类器独立地对依赖项进行评分(他使用MIRA进行在线学习,但它也可以是其他东西)
  3. Constraint Satisfaction
    • 去掉不满足硬约束的边
    • Karlsson(1990), etc.
  4. “Transition-based parsing” or"deterministic dependency parsing"
    • 良好的机器学习分类器
    • MaltParser(Nivreet al. 2008)指导下的依存贪婪选择。已证明非常有效。
Greedy transition-based parsing[Nivre 2003]

基于贪婪转换的解析 的一种简单形式:

  • 解析器执行一系列自底向上的操作
    • 大致类似于shift-reduce解析器中的"shift"或"reduce",但"reduce"操作专门用于创建头在左或右的依赖项
  • 解析器如下:
    • 栈 σ 写在右上方
      • 以 ROOT 符号开始,由若干 w i w_i wi 组成
    • 缓存 β \beta β 写在左上方
      • 以输入序列开始,由若干 w i w_i wi 组成
    • A A A 是一个依存弧的集合 ,
      • 一开始为空。每条边的形式是 ( w i , r , w j ) (w_i,r,w_j) (wi,r,wj) , 其中 r r r 描述了节点的依存关系
    • 一组操作
  • 最终目标是 σ = [ w ] ,   β = ϕ   A 包含了所有的依存弧 \sigma= [w],\ \beta= \phi\\\ A 包含了所有的依存弧 σ=[w], β=ϕ A包含了所有的依存弧
伪代码

在这里插入图片描述

状态转变示意图

在这里插入图片描述

state之间的转变有三类:
· SHIFT:将buffer中的第一个词移出并放到stack上。
· LEFT-ARC:将 ( w j , r , w i ) (w_j,r,w_i) (wj,r,wi) 加入边的集合 A, 其中 w i w_i wi 是stack上的次顶层的词, w j w_j wj 是stack上的最顶层的词。
· RIGHT-ARC:将 ( w i , r , w j ) (w_i,r,w_j) (wi,r,wj) 加入边的集合 A, 其中 w i w_i wi 是stack上的次顶层的词, w j w_j wj 是stack上的最顶层的词。

我们不断的进行上述三类操作,直到从初始态达到最终态。

我们在每个状态下该如何选择状态转换呢?

||| (当然还有其他的转变方案)
V

基于 Arc 标准转换的解析器

基于贪婪转换的解析是基于Arc标准转换的一种具体实现方法。

“I ate fish” 例子分析
在这里插入图片描述
在这里插入图片描述

我们如何选择下一步行动 / 怎么判断我们选择的下一步对不对?

用机器学习!

MaltParser[Nivreand Hall 2005]

MaltParser是一个支持Greedy transition-based parsing的工具,它提供了基于Arc标准的转移系统解析算法的实现。

  • 每个转换动作都由一个有区别分类器(例如softmax classifier) 对每个合法的转换进行预测
    • 最多三种无类型的选择
      • 左弧(Left-Arc)、右弧(Right-Arc)和规约(Reduce)
    • 当带有类型时,对于每个可能的依存关系类型,都可以进行左弧和右弧的转换操作,以及规约操作。
      • 所以最多 ∣ R ∣ × 2 + 1 |R|\times2+1 R×2+1 种,其中 ∣ R ∣ |R| R是可能的依存关系类型数目
    • 特征可以包括栈顶单词、PQS(部分队列状态);缓冲区中的第一个单词、POS(词性)等等。
      • 特征在预测转换动作时起着重要的作用。它们提供当前句子状态的信息,帮助分类器做出正确的转换动作预测。
  • 在最简单的形式中是没有搜索的
    • 在解析过程中不使用搜索策略,而是根据分类器的预测结果直接执行转换操作。 这种形式不考虑多个可能的解析路径,而是仅根据当前状态和分类器的预测进行决策。虽然这种形式简单直接,但由于每个步骤只考虑局部最优解,可能会牺牲一些准确性,准确性可能不如使用搜索策略的更复杂方法。
  • 但是,如果你愿意,你可以有效地执行一个 Beam search 束搜索(虽然速度较慢,但效果更好):
    • 在解析过程中,在每个时间步骤中保留k个最好的解析结果。
    • 这样做的目的是探索多个可能的解析路径,并在解析过程中保留一些备选的选择。通过保留多个解析前缀,可以增加解析的覆盖范围,提高解析准确性。
  • 该模型的精度略低于依赖解析的最高水平,但它提供了非常快的线性时间解析,性能非常好。

依存解析评估:(标记)依存准确度

在这里插入图片描述

其中,UAS (unlabeled attachment score)指 无标记依存正确率LAS (labeled attachment score)指 有标记侬存正确率

  • UAS 是衡量依存分析模型在句子中正确连接词语之间依存关系的比例,而不考虑具体的依存关系类型。
    • 计算方式是将模型预测的依存弧与人工标注的依存弧进行对比,只关注弧的连接是否正确,而不考虑依存关系的具体标签。
    • 计算公式是:正确连接的依存弧数量 / 总依存弧数量
  • LAS 是衡量依存分析模型在句子中正确连接词语之间依存关系的比例,并且考虑了具体的依存关系类型。
    • 计算方式是将模型预测的依存弧与人工标注的依存弧进行对比,既要关注弧的连接是否正确,也要考虑依存关系的具体标签是否正确。
    • 计算公式是:正确连接且标签正确的依存弧数量 / 总依存弧数量
怎么构建机器学习分类器?

先要 特征表示
在这里插入图片描述

在传统的特征表示方法中,特征向量通常是非常长的二元稀疏向量(大多数元素取值为0),其维度范围在 1 0 6 10^6 106 1 0 7 10^7 107之间。

特征模板 是一种用于构建特征向量的模板或规则。

  • 它们通常由1到3个元素组成,每个元素代表一个特定的语言学或结构属性。
  • 特征模板定义了如何从输入数据中提取特征,并将其表示为特征向量的形式。


指示器特征(indicator features) 是特征模板中的一种类型,它用于表示某些属性或条件的存在与否。

  • 例如:缓冲区的第一个词是否是名词?
  • 指示器特征是二元的,只能取0或1的值。
    • 对于每个特征,如果属性存在,则特征向量中对应的位置设置为1;
    • 如果属性不存在,则设置为0。


举个例子,假设我们正在进行垃圾邮件分类任务。

  • 我们可以定义一个特征模板,其中包含三个元素:(1) 是否包含词语"buy",(2) 是否包含词语"money",(3) 是否包含词语"discount"。对于每个元素,我们可以使用指示器特征来表示其存在与否。
  • 假设我们有一封邮件内容为:“Get a 50% discount on your next purchase!”。对于我们定义的特征模板,邮件中包含了"discount"这个词,因此对应的指示器特征值为1;而"buy"和"money"这两个词不在邮件中,所以对应的指示器特征值为0。特征向量可以表示为 [0, 0, 1]

通过使用这种特征表示方法,我们可以将输入数据转换为高维的稀疏特征向量,其中每个元素代表一个特定的属性或条件的存在与否。这样的特征向量可以用于训练机器学习分类器,并帮助分类器学习样本之间的模式和关系。

处理非投影性(non-projectivity)

  • 弧标准算法通常只构建投影依赖树,即仅考虑形成投影结构的依存关系。
    非投影性指的是句子中存在无法形成投影结构的依存关系。
  • 处理方法
    • 在非投影弧上宣布失败:这意味着当存在无法形成投影结构的弧时,系统会放弃尝试构建该弧,从而确保最终的依存树是投影的。
    • 只使用依赖形式的投影表示:一些语言的依存结构允许使用依赖形式来表示投影结构。在这种情况下,只使用依赖形式的结构来构建依存树,而非投影弧被忽略。
    • 使用投影依赖项解析算法的后处理器:可以使用投影依赖项解析算法的后处理器来识别和解析非投影链接。这些后处理器可以通过修改依存树或添加额外的转换来处理非投影弧。
    • 添加额外的转换:可以通过添加额外的转换来模拟非投影结构。例如,可以添加一个额外的交换转换或冒泡排序转换,以处理非投影弧。
    • 转移到不受投影性限制的解析机制:另一种策略是将解析机制转移到不需要或不考虑投影性约束的方法上。例如,可以使用基于图的MSTParser(最小生成树解析器),它以图的形式表示句子结构,不受投影性限制。
  • 23
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值