Event Detection via Gated Multilingual Attention Mechanism(中文翻译)

通过门控多语言注意机制的事件检测

作者:刘健,陈玉博,刘康,赵军    单位:中国科学院自动化研究所

摘要

识别文本中的事件实例在构建NLP应用程序中起着关键作用例如信息抽取(IE)系统。但是,此任务的大多数现有方法仅关注单一语言的特定语言线索,而忽略其他语言提供的大量信息。数据稀缺和单语歧义阻碍了这些单语方法的表现。在本文中,我们提出了一种新的多语言方法 - 被称为门控多语言注意(GMLATT)框架 - 同时解决这两个问题。具体而言,为了缓解数据稀缺问题,我们通过上下文关注机制利用多语言数据中的一致信息。它利用多语言数据中的一致性证据,而不是仅从单语数据中学习。为了解决单语歧义问题,我们提出门控跨语言注意力来利用多语言数据传达的补充信息,这有助于消除歧义。跨语言关注门作为一个哨点,模拟其他语言提供的线索的可信度,并控制各种语言的信息集成。我们已经对ACE 2005基准进行了广泛的实验。实验结果表明,我们的方法明显优于最先进的方法。

介绍

事件检测(ED)的目标是在纯文本中识别特定类型的事件实例。具体来说给定一个句子时ED需要决定该句子是否包含感兴趣的事件。如果是这样,它还需要识别特定的事件类型,并为每个事件定位事件触发器。以下面的句子为例:

 

In Baghdad, a cameraman died when an American tank fired on the Palestine hotel.

在巴格达,一名摄影师在美军坦克向巴勒斯坦酒店开时死亡。

 

根据ACE 2005注释指南,这里提到了两个事件:一个由“死亡”触发的Die事件,以及由“触发”触发的攻击事件。一个ED系统应该能够识别所有的。建立一个强健的ED系统具有挑战性。根据(JiGrishman 2008),人类注释者在ACE 2005评估任务中只能获得大约73%的F1得分。

到目前为止,许多方法(LiJiHuang2013; Chen等,2015; 2017; NguyenGrishman2015; 2016; Liu等,2016; 2017; Feng等,2016)已经提出并获得了最先进的性能。然而,这些方法中的大多数都是单语的方法,并且只关注于在单语数据中挖掘文本线索。我们认为,至少有两个问题阻碍了他们的表现:

数据稀缺。我们分析了广泛使用的ACE 2005语料库,并展示了图1中的统计数据。语料库定义了33种事件类型,然而,其中近70%只有小于100的实例。(三种类型的实例甚至少于十个)。训练数据的不足妨碍了现有方法的性能,这些方法处于监督学习模式下,并依靠大量的训练样例来保证良好的性能。此外,获得额外的训练实例也很困难。有效的训练数据必须符合ACE 2005注释指南,该指南是一个77页的文档,其中详细说明了详细的事件模式和注释规范。

1:ACE 2005语料库的统计  虚线表示阈值为100

单语歧义。单语歧义是在ED任务中出现的另一个问题。一方面,相同的事件可以用完全不同的表达方式来描述,它们有不同的触发词。另一方面,同一个词可以表达完全不同的事件。为了说明这一点,请考虑以下句子:

s1: An American tank fired on the Palestine hotel.

s2: Two airline pilots were reportedly fired for stripping down.

s1:一个美国坦克向巴勒斯坦旅馆开火。

s2:据报道,两名航空公司飞行员被解雇。

s1s2都包含一个单词“触发”,表示事件正在发生。然而,在s1中,“开火”的意思是“放枪(或其他武器)”并触发攻击事件。在s2中,“解雇”意味着“解雇(员工)”,这触发了终止职位的事件。具体的事件类型是完全不同的。歧义是英语文学中的一个普遍现象。对于定量测量,我们研究了ACE 2005中的注释事件,并观察到57%的触发词含糊不清,这使识别和分类事件具有挑战性。

本文提出了一种新颖的多语言方法,即“门控多语言”(GMLATT)框架,同时解决上述两个问题。我们认为,与单语方法相比,多语言方法可以利用两种类型的信息:

1.多语言的一致性。在不同的语言中表达相同想法的句子通常有相同或相似的语义成分(McDonald等人,2013)。例如,s1的平行汉语句子是:“一辆美国坦克向巴勒斯坦旅馆开火,其中“美国坦克”是英文表达“美国坦克”的对应对应词,它指的是一种军事武器。无论在英语或汉语中,武器词往往与攻击事件一起出现,这为识别攻击事件提供了重要线索。不同语言之间的证据是一致和连贯的。增强线索可以用来缓解源语言中的数据稀缺性。

2.多语种互补。不同的语言通常有不同的特点和习语。一种语言的含糊表达可能在其他语言中具有非歧义性,这可以为消除歧义提供补充信息(LinLiuSun 2017)。例如,当将s1s2映射到中文时,fired的对应翻译分别是“开火”和“解雇”。这两个汉字不具有共同的特征或语义,并且没有模棱两可的表达Attack事件和End-Position事件。中文的信息有助于消除英语中事件类型的歧义,我们称之为多语言互补。

在这些动机的指导下,我们的框架,GMLATT使用两种关注机制来利用这两种信息来识别和分类事件:

(1) 为了利用不同语言之间的一致证据,我们只对每种语言进行单语语境的关注。很直观的是,句子中的单词具有不同的重要性。例如,在s1中,“美国坦克”提供了一个更重要的线索,即冲突情景中可能发生的事件比其他词语更为重要。在s2中,“航空公司飞行员”和“剥离”是暗示终端事件发生的重要部分。这些话应该比其他词更受关注。在此基础上,我们采用上下文注意机制围绕候选触发器的上下文文本来建模。注意权重表明句子中不同单词对预测事件类型的重要性。

(2) 为了利用补充信息,我们采用了门控的跨语言注意。来自其他语言的文本确实提供了有价值的线索。然而,如何将它们与源特性结合起来是一个问题。我们使用门控跨语言注意力来模拟其他语言提供的功能的可信度。注意门作为一个哨兵来控制从其他语言到源端的信息流。从而控制各种语言的信息集成。

我们的主要贡献有三个方面:(1)我们提出了一个新颖的多语言ED任务框架,可以同时解决数据稀缺和单语歧义问题。(2)该框架包含两种关注机制:单语环境注意和门控跨语言注意。在我们最好的情况下,这是第一个引入对多语言数据建模的注意机制的工作在ED任务中。(3)我们对ACE 2005语料库进行了广泛的实验,实验结果表明,我们的方法比现有方法取得了显着的改进,并在此评估任务中设置了新的先进技术。

工作描述

ACE 2005中,一个事件被定义为涉及一个或多个参与者的特定事件。标准事件提取(EE)任务需要特定类型的事件,这些事件在源语言文本中被提及。

我们引入了一些ACE术语来促进对任务的理解:

实体:在兴趣的语义范畴之一中的对象。实体提及: 对实体的引用(通常是名词短语)。事件提及:描述事件的短语或句子,包括触发器和参数。事件触发:这个词最清楚地表达了事件的提及,通常是一个动词或名词。事件论证:一个实体提及、时间表达式或值(例如,职位名称)作为参与者或属性,在事件提及时具有特定的角色。一个实体提及时间表达或价值(例如职务 - 标题)作为参与者或属性在事件提及中具有特定角色。

对于这个句子:“他死在医院里。”事件提取器应该检测一个Die事件,以及事件触发器“死亡”和事件参数“He”(角色=受害者)和“医院”(角色=Place)。在本文中,我们没有做整体的标准EE任务,而只关注ED任务 - 即事件触发器识别和事件类型分类。也就是说,对于前面的示例,我们的目标是确定记号“已死”是一个事件触发器,事件类型是Die

方法

在本节中,我们将说明GMLATT框架的细节。GMLATT的表示如图2所示。GMLATT有四个步骤:

多语言投影 —— 将单语言文本项目并行化为多语言文本。 我们利用机器翻译(MT)来引导源数据。

句子表示 —— 将句子的符号表示转换为统一的分布式表示。

2GMLATT框架的整体架构。在多语言投射之后,框架利用BiGRU编码器将句子编码为分布式表示。单语的注意力和门控的跨语言注意力被用于多语言信息整合

循环神经网络(RNN)被用来对每种语言的句子进行建模。

多语言信息集成 —— 从不同的语言中收集信息。它指的是:(1)使用单语上下文注意在每种语言中汇集信息。(2)使用门控跨语言注意力整合不同语言的信息。

事件类型预测 —— 做细粒度的事件类型分类。

在本文中,我们将重点放在英语事件检测上,即源语言被设置为英语。我们使用中文作为唯一的目标语言来引导源数据。请注意,在理论上,我们的框架不受特定语言的限制,甚至可以同时使用各种语言作为目标语言,我们将在未来的工作中使用这些语言。

多语言投影

由于ACE 2005仅对单语事件进行了注释,为了应用我们的框架,我们首先使用在线机器翻译服务3来获得目标语言中的并行文本。

对于触发投影而言,我们不采用启发式规则或外部字典,而是以一种无监督的方式学习对齐。我们使用GIZA ++ 4——这是MT中常用的工具——来学习多语言对齐。GIZA ++将单词对齐视为隐藏变量,并使用EM算法无监督地找到最佳对齐方式(Och and Ney 2003)。我们将翻译后的多语言数据与(Eisele Chen 2010)发布的200k平行英汉语语料库5连接在一起,以学习它们的排列组合。

请注意,GIZA ++所学习的排列是有针对性的。我们学习源到目标和目标源匹配,然后利用(OchNey 2003)发布的grow-diag-finaland算法合并它们。 以下是多语言投影的一个例子:

3:多语言投影的例子。直线表示对齐。英文触发词“开火”正确地投射到中文单词“开火”。

句子表示

循环神经网络(RNN)在序列建模中显示出有希望的结果。我们采用一种称为门控循环单元(GRU)的RNN的特殊实现(Chung2014)来对单词序列进行建模以表示句子。

在每个步骤tvanilla GRU接受当前输入xt和前一个隐藏状态ht-1来计算当前隐藏状态ht = GRUxt; ht-1),如下所示:

一种更先进的模型是双向GRUBi-GRU)。它在每一个时间步骤t中保持两个隐藏状态,一个用于从左到右的传播另一种是右向左传播它将这两个状态合并为当前状态:

我们采用Bi-GRU来编码句子。 首先通过三个查找表将句子中的每个标记转移到词法特征:

词嵌入表:词嵌入能够捕获词的有意义的语义规则(TurianRatinovBengio2010)。我们使用词嵌入作为基本特征。我们使用Skip-gram模型来学习不同语言的单词嵌入——英文的NYT语料库和中文的CN维基百科。

实体嵌入表:根据现有的工作(LiJiHuang2013; Chen等,2015; NguyenGrishman2015; Liu等,2016),我们利用注释的实体信息作为附加特征。我们随机地为每个实体类型(包括NA类型)初始化嵌入向量,并在训练过程中更新它们。 实体嵌入表由不同的语言共享。

位置嵌入表:在关系抽取任务中,(Zeng等人,2014)使用位置嵌入来表示上下文词与实体之间的距离,这带来了巨大的性能提升。类似地,我们也使用上下文词汇和候选触发器之间的相对距离指定的位置嵌入。我们随机初始化嵌入向量并在训练过程中更新它们。

我们将以上三个特性连接作为Bi-GRU的输入。在Bi-GRU中隐藏的状态序列被用作句子的表示。我们将源端表示句子表示为,在目标方面为,其中LN分别是句子长度。

多语言信息集成

这是GMLATT框架的核心部分。该框架利用单语上下文的关注,利用不同语言之间的一致证据,对模型上下文文本进行分析。它利用门控的跨语言注意力来模拟TARGET方面提供的互补线索的信心,TARGET方面控制着来自各种语言的信息整合。

单语语境注意机制

单语语境关注机制是在每一方面进行的。我们只使用SOURCE方来说明,以避免重复。给出一个源句和它的表示,我们首先将每个标记作为候选触发器,其表示形式为。然后,我们利用注意机制利用其周围的上下文文本来找到证据来确定其类型。每个标记在上下文文本中的重要性计算如下:

                         (5)

其中mi是候选触发表示hc src与上下文标记表示hsi之间的相关性,以双线性注意为模型:

                   (6)

其中是权重矩阵,而是偏置项。给定所有重要性权重,就候选触发器传达的综合信息通过加权和得到:

                         (7)

对于目标端,我们首先找到候选触发器的对齐标记——我们将其表示为 ——然后执行与源侧相同的过程来利用对齐的候选触发器和目标句子表示之间的关系。表示目标一侧相应句子的综合信息。

门控跨语言注意机制

给定,下一步是将它们组合起来以获得综合信息。我们提出了两种组合策略:

STG1:平均总和。我们假设来自源端和目标端的信息具有相同的重要性。综合信息的计算如下:

                   (8)

STG2:加权和。我们假设来自源端和目标端的信息具有不同的重要性。我们利用门控跨语言注意力来模拟目标方提供的线索的信心。注意门的值被计算为:

                     (9)

其中是权重矩阵,是偏置项。是多元函数接受向量作为输入,并计算输出为:

                     (10)

我们使用作为源端和目标端的组合权重来组装。由于我们的初衷是在源端实施ED,所以注意门可以被看作是控制从目标端到源端的信息流的标志。请注意,注意门的尺寸与相同,综合信息通过加权和计算得出:

                (11)

其中◦表示单元乘法运算。 代表各种语言的最终综合信息。

事件类型预测

按照以前的工作,我们将ED定义为一个多类分类问题。对于源句中的每个标记,我们都可以预测它是否是事件触发器,并为它确定事件类型。我们将组合作为softmax分类器的输入:

            (12)

其中,是权重矩阵,而是偏置项。输出O是一个实值矢量,表示不同类型的预测概率。候选触发器t的概率属于类型j

                              (13)

代表了GMLATT的所有参数,表示的第元素。

训练和优化

这里我们介绍GMLATT框架的学习和优化细节。 优化目标函数被定义为多类交叉熵损失:

                      (14)

其中K表示训练数据中所有标记的数量。yi是标记ti的真实事件类型。λ是正则化参数并且Θ指示所有参数。对于优化方法,我们采用小批量随机梯度下降(SGD)来最小化目标函数。我们添加了丢失层以防止参数的过度配合来抵抗过度配合问题(Srivastava et al.2014)。采取负面抽样处理数据不平衡问题。(在训练数据中,非类型事件与输入事件的比率约为2001)。

数据集和评价指标

我们在广泛使用的ACE 2005数据集上进行实验。这个语料库包含599个注释了8个类型和33个事件子类型的文档。继之前的研究(LiaoGrishman2010; LiJiHuang2013; Chen等,2015; NguyenGrishman2015; Liu等,2016),我们简单地将它们视为33个独立的事件类型并忽略分层结构。我们使用与以前的作品相同的数据分离:40个特定的文章被用作盲测试集; 使用30篇文章作为开发集; 其余529篇文章用于训练。

我们使用以下标准进行评估:(1)如果它的偏移量与一个参考触发器(事件触发检测)相匹配,则会正确地识别出触发器。(2)如果触发器的偏移量和事件类型与参考触发器(事件类型分类)匹配,则正确分类。 使用精确度(P),召回率(R)和F1得分(F1)作为评估指标。 和以前的所有作品一样有意义的比较。

与现有的方法比较

我们将我们的模型与许多最先进的方法进行比较。 我们将这些方法分为三种类型:

基于特征的方法。MaxEnt:(LiJiHuang 2013)中的方法,它只使用人为设计的特征。CrossEvent:(Liao and Grishman 2010)中的方法,利用文档信息获取复杂的功能。组合-PSL:(Liu等人,2016)中的方法,其使用概率性软逻辑模型来开发全局信息,即最佳报告的基于特征的系统。

基于表示的方法DMCNN:(Chen等,2015)中的方法,它使用CNN自动完成特征提取。 JRNN:(NguyenChoGrishman 2016)中的方法,它使用更复杂的结构来为事件相互依赖关系建模。 NC-CNN:(Nguyen and Grishman2016)中的方法,它模拟非连续n元组以实现更高性能。

基于外部资源的方法。DMCNN-DS:(Chen et al2017)中的方法,它使用FreeBase通过Distance Supervision标注新的训练数据。 ANN-FN:(Liu et al2016)中的方法,它利用FrameNet中的事件来引导训练。 ANN-AugATT:该方法(Liu et al2017),它利用了额外的参数信息和FrameNet

性能如表1所示。从结果中,我们有几个观察结果:

在所有这些方法中,基于表示的方法击败基于特征的方法(平均占F11.9%)和基于外部资源的方法达到最佳效果(基于代表性方法的F1平均值为1.0%)。这种现象并不奇怪。基于表示的方法通过避免复杂的特征工程来实现更好的性能,并自动学习数据中的显着特征。虽然基于外部资源的方法将特征学习与来自外部资源的更多数据结合起来,以实现进一改进。

此外,在所有的方法中,我们的方法表现最好。它在事件类型分类方面取得了最好的成绩(F172.4%),并且在F1上击败了最好的外部资源基于方法ANN-AugATT0.7%。对于事件类型识别,与最佳系统相比,它实现了比较性能(74.1vs 74.3%)。

我们做出合理的解释:与基于表示的方法相比,我们的方法可以利用多语言数据提供的增强线索来增强特征学习。与外部资源相比较方法,结果很有趣:我们的模型倾向于获得更高的精确分数(在事件类型分类和事件类型识别中都是最高的),但回忆较低。我们认为这是导致这种现象的不同类型的附加信息。我们的模型使用多语言并行数据来学习功能,并且多语言一致性和多语言补充提供更加一致和相关的线索属性为更高的精度。虽然基于外部资源的方法,他们通常需要通过一些启发式规则来转移外部数据以适应当前的事件模式(Chen et al2017; Liu et al2017)。他们利用的数据量很大,但确实不精确和嘈杂,这是造成更高回忆率但更低精度的原因

1:所有方法的性能。粗体表示最好的结果。y代表意义的改善。

详细分析

我们进行额外的实验来做详细的分析。 EIEC分别代表事件触发识别和事件类型分类的F1分数。

不同注意策略的影响

我们提出了五种模型,比较两种基本线,以利用不同注意力策略的效果。

单语设置

DNN-ED是(Liu et al.2016)提出的基本快速前向神经网络模型。DMCNN是(Chen et al.2015)利用CNN自动进行功能捕捉的模型。 GMLATT-Mon是没有任何注意机制的GMLATTGMLATT-MonATT只有GMLATT才具有单一语境的关注。

多语言设置

GMLATT-TA是没有门控跨语言注意力的GMLATT,但将对齐的候选触发器用作多语言信息。 前面已经描述了STG1STG2两种不同的策略。

结果如表2所示:

2:不同注意力策略的表现。

我们发现:(1)即使是多语言环境下最简单的模式也能击败最好的单语言方法(欧共体F10.8%),这证明了利用多语言数据来检测事件的直觉。(2)在单语方法中,GMLATT-MonATT优于两条基线,取得了最好的结果,说明了单语情境关注机制的有效性。(3)在多语言方法中,STG1STG2都比GMLATTTA获得更好的结果,GMLATTTA只使用对齐的触发器作为多语言数据。此外,STG2大幅优于STG1EI0.7%,EC0.8%),显示了使用门控跨语言注意来收集信息的优势。

特征组合的影响

我们利用功能组合的效果。实验以单语设置进行,以消除多语言数据的影响。 DNN-ED被视为简单模型,而GMLATT-MonATT则作为复杂模型。结果如表3所示:

3:特性组合的性能。

根据结果,实体嵌入和位置嵌入在简单模型和复杂模型中都提供了补充改进。 看起来,实体嵌入比位置嵌入更有效(平均为0.2%)。 直觉解释是:当使用RNN编码句子时,位置信息可能在某种程度上被编码为分布式表示。 这减少了添加位置嵌入的影响。

预测数据的性能

我们研究了预测数据的性能。结果如表4所示。

4:预计的中国数据的性能。

与英语中的ED相比,中文投射数据的表现相对较低。 我们将不良表现归因于MT引入的噪音。噪音包括翻译错误和对齐错误。尽管如此,它仍然显示了英语ED的一致性表现——GMLATT与注意力机制的表现优于两个基线。

注意可视化

4中显示了两个例子的注意权重。

4:注意可视化。热图显示了上下文的注意。蓝色用于源语言,橙色用于目标语言。

饼图表示门控跨语言注意力的平均值

在实验1中,SOURCE方面的“主席”和“伦敦”以及TARGET方面的“祝喜”和“伦敦”具有较高的关注权重。这意味着与职业变化相关的事件并且决定“离开”的事件类型是终止位置。在实验2中,“预定”和“他们的谈话”是源语方面很受关注的词语。它们意味着共同的生活场景,并产生一次“离开”运动事件。 请注意,实验2TARGET方面的注意力量是凌乱的。这与TARGET侧的平均门控跨语言注意力权重的较低值与Exp.1

我们抽出100个例子来利用门控跨语言注意力,发现SOURCETARGET的比值为0.590.41TARGET方面的重量较低意味着 - MT引发的噪音使得TARGET方面不如SOURCE方面可靠。

 

误差分析

为此,F1分数是精确度和召回率的折衷,对于每个度量标准,我们抽取50个例子来检查原因。 我们在表5中给他们一个简短的总结

5:对精度和回忆的错误分析

为了精确,高度模糊的触发(词触发太多事件,特别是支持动词,如“走”,“走”)是影响性能的主要原因。 注释歧义也是一个严重的问题。 例如,“黑客入侵”是否表示攻击事件或死亡事件? ACE 2005只为每个提及的事件分配一个事件,这会导致注释歧义。

对于召回,罕见的触发(训练实例少于5个),基于名词和形容词的触发是主要原因。其他原因包括间接触发因素,如“this”,“what”,这需要对句子进行深层语义分析才能识别出来。

相关工作

已经为ED提出了各种方法。基于特征的方法依赖于判别性特征来建立统计模型。 (Ahn 2006)利用了词汇特征和句法特征。更高级的功能包括交叉文档特征(JiGrishman 2008),跨事件特征(Gupta and Ji 2009; Liao and Grishman 2010)等(LiJiHuang 2013)提出了一种基于结构感知器和波束搜索的联合框架来做事件触发和事件论证预测。(Liu et al2016)使用基于概率软逻辑的方法来结合局部和全局特征。基于表示的方法已经有了最近引入了ED。它包括使用卷积神经网络(CNN)(Chen等,2015; NguyenGrishman2015)来避免复杂的特征工程,建模非连续跳跃模型(NguyenGrishman2016)。基于表示的方法由于其自动特征捕获和建模数据中复杂的隐藏交互的能力而获得相对较高的性能。但是,正如我们之前提到的,ED中的数据稀缺限制了他们的进一步表现。基于外部资源的模型通过利用附加信息来解决数据稀缺问题。 (Chen2017)使用FreeBase通过距离监督标记新的训练数据。(Liu et al2016)利用FrameNet中的事件获取更多可用数据。(Liu et al2017)利用来自参数和FrameNet的附加信息来检测事件,从而获得更好的性能。

对于多语言方法,(Ji 2009; Li et al2012; Wei et al2017)是优秀的作品,属于传统的基于特征的方法。 (Agerri2016; DanilovaAlexandrovBlanco 2014; 冯等人。 2016)阐明了构建多语言事件抽取系统的技术,然而,其作品中的“多语言”确实意味着“与语言无关”,这与我们的工作正交。

注重深度学习也与我们的工作有关。它吸引了很多研究人员的兴趣,因为它有能力学习源和目标之间的隐含关系。机器翻译(BahdanauChoBengio2014),机器理解(Hermann等人,2015),图像标题生成(Xu等人,2015

等应用于注意模型的各种领域。我们的知识,这是第一次采取注意神经网络来解决教育署的任务。

总之,我们在一个新颖的多语言框架中利用两种注意机制来解决ED中同时出现的数据稀缺和单语歧义问题。实验结果表明,我们的方法比现有方法取得了显着的改进,并设置了一个新的最先进的性能。

该研究工作得到国家重点科技攻关计划资助项目2017YFB1002101和国家自然科学基金资助项目61533018的支持。该项工作也得到了蚂蚁金融服务集团的支持,并得到了阿里巴巴集团通过阿里巴巴创新研究(AIR)项目的支持。


  • 5
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值