EMNLP 2021 | 论辩挖掘在不同领域下的应用

每天给你送来NLP技术干货!


来自:复旦DISC

作者:李寅子

05d75c4d9b045a0e49c21aa70940361d.gif

引言

a3be1602eb30f2f25bdc9e77150e035b.gif

论辩研究和推理是一个涉及到逻辑、语言、计算机等多学科领域的过程,在人工智能兴起的时代,计算论辩试图将人类对于论辩领域的知识和人工智能结合起来,用计算机深度模型来挖掘论辩语义、论辩结构等方面,达到自动推理的效果。论辩挖掘是计算论辩中的一个重要任务,它的主要任务有单篇式论辩挖掘,包括提论点分类、论点评估等;交互式论辩挖掘,包括论点对抽取等。此次的三篇论文将阐述论辩挖掘在司法领域、论辩领域、同行评议领域等的证据链支持、反驳证据评估、论点对抽取等方面应用。

7435f06d03bb18aeadf0a8dc6b1160b3.gif

文章概览

ded55b3d9f27db48a93dfd54d675df57.gif

1. Argumentation-Driven Evidence Association in Criminal Cases

刑事案件中的证据关联是将一组司法证据划分为若干不重叠的子集,提高定罪的可解释性和合法性。可以观察到,分成同一子集的证据通常支持同一主张。在证据关联步骤中,此篇文章提出了一种基于论证驱动(argumentation-driven)的监督学习方法来计算证据对之间的联系。在实际数据集上的实验结果证明了该方法的有效性。

2. Knowledge-Enhanced Evidence Retrieval for Counterargument Generation

找到对陈述的反证是许多任务的关键。此篇文章建立了一个系统,给出一个陈述,从Web上不同的来源检索反证据。该系统的核心是一个自然语言推理(natural language inference, NLI)模型,它可以判断一个候选句子是否为有效反证。作者提出了一个知识增强的NLI模型,旨在通过整合知识图来处理基于因果关系和实例的推理。在实际数据集上的实验结果证明了该方法的有效性。

3. Argument Pair Extraction with Mutual Guidance and Inter-sentence Relation Graph

此篇文章通过一个相互引导的框架来处理论点对抽取(APE)任务,利用一个段落中一个论点的信息来指导识别另一个段落中可以与之配对的论点。此外,此篇文章还提出了一个句间关系图来有效地模拟两个句子之间的相互关系,从而有利于论点对的提取。实验结果表明,我们的方法明显优于目前SOTA的模型。

f00cc4e8ba58e0bd1862f64fac92bc70.gif

论文细节

f761c5ec99c50d56e4edeca4eb233f3e.gif

1

a3ceb16c74b396fd399b7f433593eae7.png

动机

司法证据的作用是用来支持有利于定罪的诉讼请求,证据描述是刑事判决书的重要组成部分。然而,在不同的法律文件中,证据的组织是不同的。证据关联的形式主要有收集式(collection)和论证驱动式(argumentation-driven)。

2be5a4ea5c766b9b24383a9a918ebb7a.png

在目前大多数的刑事裁判文书中,证据只是以集合的形式罗列出来,没有明确的主张,这被认为是集合的形式。但仅在5%左右的刑事判决文书中,依据相关主张将证据收集分为几个子集,被认为是论证驱动的形式。

由此,此篇文章提出了一项刑事案件中的证据关联任务,通过有监督的方法学习距离度量,无需额外的人工标注即可进行后续证据的聚类。

任务定义

给定证据集合,此篇文章将证据分为不重叠的个子集。

模型

(1)聚合方法

每一种情况下的聚类数量是不同的,所以不能像K-Means方法那样设置一个特定的聚类数量。作者通过层次聚类来聚类证据(Day and Edelsbrunner, 1984),它可以学习停止阈值,该阈值决定何时停止合并两个聚类。

(2)距离度量

本文提出了三种距离度量的概念,分别是Latent Distance、Explicit Distance和Ensemble Distance。

Latent Distance是证据之间的距离。在不给出明确主张的情况下,只能利用证据对的信息来计算它们之间的距离。支持同一主张的证据对之间的距离被标记为0,支持不同主张的证据对之间的距离被标记为1。

Explicit Distance是证据与主张之间的距离。证据和相应的主张之间有很强的相关性,例如,交通事故责任证明可以支持交通事故的责任划分。证据与相应主张的相关性分值为1,证据与其他主张的相关性分值为0。

Latent Distance仅利用证据之间的语义信息来计算相似度。Explicit Distance仅利用证据与主张之间的推理关系来计算证据之间的距离。Ensemble Distance将这两种方法融合在一起,同时利用证据之间的语义信息和证据与主张之间的推理信息,定义为这两个距离的加权和。

数据集及实验

作者以China Judgements Online中已发表的法律文件构建了一个数据集,选择如下图所示证据描述为论证驱动形式的法律文件进行实验。

f1f45a37dff1ed7faa29d459ae185d78.png

作者主要采用ESIM和BERT进行有监督学习的距离预测,结果如下表所示。

ee324896e4198c8e6ddece9fb7f61970.png

  • 表中的结果显示,有监督方法的性能较好。同时,BERT模型优于ESIM模型。可能的原因是,支持同一观点的证据对有共现趋势,这可以在BERT模型的下一个句子预测(next sentence prediction)任务中学习到。

  • Latent distance算法利用了证据对之间的语义信息,其性能优于explicit distance。基于ensemble distance的聚类结果由于整合了证据对之间和证据主张之间的关系,比单一距离的聚类结果有很大的提高。

4c778ed71fb2701dd0c9d339393e0404.png

如上图所示,claim1和claim2分别代表受害人的出生日期和死亡日期。受害者的户籍证明和死亡证明都能部分支持受害者的身份信息,但由于在使用Latent distance时只考虑证据对之间的关系,误将它们聚在一起。Claim4和claim5是相似的,它们都是对交通事故现场的描述,但由于在使用explicit distance时几乎没有考虑证据对之间的语义关系,将被告人王某的供述和证人董某的证言误聚在一起。从而将证据对之间的语义关系与证据主张之间的信息相结合,通过ensemble distance得到的聚类结果是正确的。

2

5e0c04c25f2b76e4fc8484a8a50d2381.png

动机

先前的研究大多集中于对长论点的主要结论提出反驳。虽然这样的反驳是有用的,但辩论式的对话通常是互动的,例如,在Change-MyView (CMV)中,挑战者经常引用特定的陈述来进行反驳。因此,本文的目标是为论点中的特定陈述找到反证,而不是为一个完整的论点生成一个反证。

任务定义

自然语言推理(natural language inference, NLI)模型是本文的核心,给定一个要反驳的陈述,系统对相关文档进行检索和排序,然后得到一组反证候选句。对于每个候选句,NLI模型决定它和陈述的关系是否包含、矛盾,或两者都不是。

模型

在本篇文章中,作者提出了知识增强NLI模型(KENLI),如下图所示。

b0ffaaba5b4b797c70c141b6b933ca59.png

KENLI(图左)是基于RoBERTa-base ,以一对前提P和假设H为输入,计算其关系是蕴含、矛盾还是中性的概率。为了连接P和H之间的实体,知识增强(Knowledge Enhancement, KE)网被插入到某两层之间,将RoBERTa分为Encoder1和Encoder2。最后的预测是基于【CLS】进行的。

KE Net(图中)利用了知识图谱(knowledge graph, KG),其中节点是实体,边是实体之间的有向关系。KG目标是让信息通过KG在P和H的实体之间流动。KE Net是由一堆KE单元组成,每个KE单元使用两个transformer TR1和TR2处理KG上的单跳推理。TR1根据相邻实体更新每个实体embedding,TR2根据实体embedding更新词项embedding。本篇文章中使用了两个知识图谱CauseNet和Wikidata。

数据集及实验

此篇文章的数据主要来自公开的NLI数据集:MNLI (Williams et al., 2018)、ANLI (Nie et al., 2020b)、SNLI (Bowman et al., 2015)和FEVER-NLI (Nie et al., 2019)。实验的结果如下表所示,显示了每个模型5次实验的平均F1得分。

881ced366391850d66019978382a8113.png

表中可以看出KENLI(6-9行)基本上优于Baseline模型(1-5行)。这表明KENLI有效地整合了知识,有利于预测陈述之间的关系。

最后作者建立了反证检索系统,是在DeSePtion (Hidey et al., 2020)的基础上建立的。如下图所示。

a5a86eaa33c8524c9f261561917b9e29.png

给定一个要验证的陈述语句,检索相关文档并对其进行排序,对候选证据句进行排序,并预测该语句是被支持、被反驳还是都不支持。作者通过提出的知识增强NLI模型来强化了最后一个阶段。

3

7bad9e3b70f94f7efeb9cfa9909d5bf6.png

动机

论点对抽取(Argument pair extraction, APE)的目的是从讨论的两段中抽取出交互式的论证对。

be4e0de4158ab5488ef6f73df563a656.png

以往的研究将该任务应用在同行评议中,但是缺乏论点对之间的论点级别交互的显式建模。此篇文章通过一个相互引导的框架来处理APE任务,利用一个段落中一个论点的信息来指导识别另一个段落中可以与之配对的论点。此外,此篇文章还提出了一个句间关系图来有效地模拟两个句子之间的相互关系,从而有利于论点对的提取。实验结果表明,我们的方法明显优于目前SOTA的模型。

模型

此篇文章提出了一个具有句间关系图的APE相互引导框架MGF,如下图所示。

fef4690f17c4cba2bd9e0ae69442ff71.png

(1)Inter-sentence Relation Graph

该图将review和rebuttal中的每一个句子作为节点,从两个角度进行构建。

  • In-passage Edge:根据句子(同一个段落中)在review/rebuttal段落中的相对位置,构建句子之间的边。两个in-passage句子之间边的权重的定义为:

  • Cross-passage Edge:基于两句之间的共现词,构建跨段落的句子边缘。两个in-passage句子之间边的权重的定义为:

(2)Mutual Guidance Framework

相互引导框架(mutual Guided Framework, MGF)首先使用BERT对句子进行编码,然后通过图卷积得到面向关系的句子表示法后,使用两个相互引导的标记器提取论点对。

数据集及实验

此篇文章使用Cheng等人(2020)提出的Review-Rebuttal (RR)数据集进行实验,该数据集包含从openreview.net收集的4,764篇ICLR的review/rebuttal文本对。Baseline是Cheng等人(2020)提出的PL-H-LSTM-CRF和MT-H-LSTM-CRF 。实验的结果如下表。

40aafaf65cf6a6db9d9ad4a41703c432.png

从表中可以看出,作者提出的模型MGF在数据集上取得了最好的性能。在不使用BERT微调的情况下,Non-FT-MGF的性能仍然优于MT-H-LSTM-CRF,这表明MDF实现的性能增益不仅仅是由于BERT微调。通过对MGF和Non-FT-MGF的比较,可以发现BERT微调可以进一步改善模型结果。

参考文献

[1] Yefei Teng and WenHan Chao. 2021. Argumentation-Driven Evidence Association in Criminal Cases. In Findings of the Association for Computational Linguistics: EMNLP 2021, pages 2997–3001, Punta Cana, Dominican Republic. Association for Computational Linguistics.

[2] Yohan Jo, Haneul Yoo, JinYeong Bak, Alice Oh, Chris Reed, and Eduard Hovy. 2021. Knowledge-Enhanced Evidence Retrieval for Counterargument Generation. In Findings of the Association for Computational Linguistics: EMNLP 2021, pages 3074–3094, Punta Cana, Dominican Republic. Association for Computational Linguistics.

[3] Jianzhu Bao, Bin Liang, Jingyi Sun, Yice Zhang, Min Yang, and Ruifeng Xu. 2021. Argument Pair Extraction with Mutual Guidance and Inter-sentence Relation Graph. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pages 3923–3934, Online and Punta Cana, Dominican Republic. Association for Computational Linguistics.

供稿丨李寅子 编辑丨赵    刚 责编丨马若雪

供稿人:李寅子丨研究生2年级丨研究方向:论辩挖掘丨邮箱:20210980077@fudan.edu.cn

最近文章

EMNLP 2022 和 COLING 2022,投哪个会议比较好?

一种全新易用的基于Word-Word关系的NER统一模型,刷新了14种数据集并达到新SoTA

阿里+北大 | 在梯度上做简单mask竟有如此的神奇效果


下载一:中文版!学习TensorFlow、PyTorch、机器学习、深度学习和数据结构五件套!  后台回复【五件套】
下载二:南大模式识别PPT  后台回复【南大模式识别】

投稿或交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。

方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。

ae97ce64b9edfd413ec833559c2be362.png

记得备注呦

整理不易,还望给个在看!
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
根据提供的引用内容,我们可以得知Transformer在自然语言处理领域有着广泛的应用,而金融领域也是其中之一。下面是Transformer在金融领域应用以及相关的a类会议: Transformer在金融领域应用: 1. 金融文本分类:Transformer可以用于金融文本分类任务,例如新闻分类、情感分析等。通过对金融文本进行编码,可以更好地理解文本的含义,从而提高分类的准确性。 2. 金融预测:Transformer可以用于金融预测任务,例如股票价格预测、汇率预测等。通过对历史数据进行编码,可以更好地预测未来的趋势和变化。 3. 金融问答系统:Transformer可以用于构建金融问答系统,帮助用户快速获取金融信息和解决问题。 相关的a类会议: 1. ACL(Annual Meeting of the Association for Computational Linguistics):ACL是自然语言处理领域的顶级会议之一,涵盖了自然语言处理的各个方面,包括文本分类、情感分析、问答系统等。 2. EMNLP(Conference on Empirical Methods in Natural Language Processing):EMNLP是自然语言处理领域的另一个重要会议,也涵盖了自然语言处理的各个方面,包括文本分类、情感分析、问答系统等。 3. IJCAI(International Joint Conference on Artificial Intelligence):IJCAI是人工智能领域的顶级会议之一,也包括了自然语言处理的相关内容,例如文本分类、情感分析、问答系统等。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值