【NLP】让AI读懂法律文书:一种基于多分类的关键句识别方法

61ac43b5dc18d00a0db52bbb9c9bf100.png

法律领域是近年来在 NLP 社区兴起的一个研究场景,许多研究者从不同的角度对其进行了大量研究,例如对当事人的情感分析、提取案件当事人信息,提取侦破案件的关键判决信息,预测案件的结果等等。

近日,来自斯里兰卡莫拉图瓦大学(University of Moratuwa)计算机系的一组研究人员,提出一种使用句子嵌入向量(sentence embedding)和多分类技术(multi-classclassification),分析法律文件中关键句子的方法。

实验结果表明,他们的方法可以有效提高关键句识别性能,帮助降低从法律判例中搜寻重要事实或论点的工作量。

任务背景


  • 判例法

在法律领域,判例法是使用过去的法庭案例来支持或反驳正在进行的法庭案件的论点,而不是使用宪法、法规和其他正式的法律定义。法律专业人士利用过去类似法庭案件中的判决来支持他们的主张。为此,他们会浏览判例文件,从中找到类似的案例和有价值的论点。

  • 庭审中的当事人

法庭案件中的法律当事人可以是一个人或者构成实体的一群人。在任何一个法庭案件中,可以确定两个主要的法律当事人——公诉人、被告。注意,可能存在不属于任何一个主要方的第三方实体或人员。从这里开始,为了便于理解,两个主要当事人将被称为原告和被告。法庭案件中几乎所有的句子、事实和论据都是用来支持或反对两个主要当事人的。

  • 庭审记录中的关键句

法律专业人员花费大量的时间阅读判例法文件,试图提取重要的事实来支持或反驳正在进行的案件,这一过程十分单调乏味。这些文件的语言相对复杂,而且数量每年都在增加。

如果能够通过自然语言处理技术(NLP)来完成这种重复而繁琐的提取重要事实或论据的工作,将会减少律师们工作,节省大量时间和金钱成本。

本研究的主要重点是识别和区分以往案例中的关键事实和论点,以支持或反对法庭案件的主要当事方。

相关基础技术工作


  • 当事人情感分析数据集

法律领域使用自然语言处理技术,一个挑战是缺乏当事人情感分析数据集。这个问题,可以通过对最初从美国最高法院获取的包含近 2000 个句子的数据集进行当事人情感注释得以解决。

情感注释包含三个概念:原告和被告两个当事人、每个当事人在每个句子中表现的情感以及对句子整体情感。

  • 交叉熵损失

平均绝对误差(Mean Absolute Error,MAE)只在少数假设条件下可以正常发挥作用。当数据集的分类标签变得有噪声时,MAE 的性能开始变差,而交叉熵损失(Cross Entropy Loss)的调整对有噪声的数据工作很好。Zhang 和 Sabuncu 对 3 个不同噪声水平的数据集进行了综合添加噪声的改进交叉熵损失函数实验,均优于 MAE。

  • 关键句子识别

Glaser 等人研究了基于 9 种不同语义类别的法律合同句子分类。研究实验是针对德语法律文本进行的。

首先,机器学习模型被训练用于从德国民法典中提取句子,然后用于法律合同中提取合同中相应的关键句子。Jagadeesh 等研究人员提出了一种顺序过程来进行文档摘要,然后提取重要的句子。

为此,在第一部分中,他们使用了带有命名实体识别(NER)和词性标注(PoS)的句法分析,基于命名实体识别(NER)、词性标注(PoS)、词频等的特征提取,根据特征对句子打分,并对句子进行排序。该系统允许根据查询提取句子,生成连贯分数是其中的关键步骤。Hirao 等人利用支持向量机(SVM)研究了句子提取方面的问题。从文档中提取关键句子的方法类似于文本摘要,并根据重要和不重要两类对句子进行分类。在当时,它们还能够击败其他三种文本摘要方法。

研究方法


最初,研究团队对只标注了判决的句子进行探索性分析,发现数据集需要更加详细,以便模型学习。有了这种洞察后,就需要为这项任务准备一个适当的数据集。

本研究的数据集是 Mudalige 等人创建的基于当事人的情感分析(PBSA)数据集的扩展,该数据集可在 OSF1 上公开获得。PBSA 数据集由 Sugathadasa 等人从美国最高法院的 25 份判例法文件中提取的 1822 个精确的句子和有意义的子句组成,以及其中对当事人的看法和整体看法。

通过为每个判决添加每个法庭案件的判决,研究团队扩展了数据集。根据胜诉方和判决对胜诉方的影响,将判决分为四类。一个句子可以分为以下几类:

1.原告败诉,并对原告产生负面影响

2.原告败诉,但对原告产生正面影响

3.原告胜诉,但对原告产生负面影响

4.原告胜诉,并对原告产生正面影响

根据以上分类,一个句子被认为是关键句,当:

  • 原告胜诉时,对原告有正面影响

  • 原告败诉时,对原告有负面影响

PBSA 数据集对每句提及当事人的话中都进行了情感标签标注。使用这些情绪标签来计算每句话对原告的影响。

48d35ca752a683d9066cba2d07e36c3b.png

在 1 号案件中,上诉人是 Lee,被告是警官。PBSA 数据集标注了 Lee 和警官的情绪标签,如下所示:

  • 原告:Lee——负面(-1)

  • 被告:officials——正面(+1),they——正面(+1)

根据情感标签,III-A 句中对原告的影响可以标注为负面。

每当有一个句子只提到被告一方的成员时,考虑被告的相反情绪作为对申诉人的影响,以便将句子按 4 类分类。在 1822 年的判决中,有 214 个判决反映了对任何一方的中立情绪,这些句子被删除了,因为它们对于句子重要性的预测是不重要的,而且由于数量的丰富,它们也会导致高度的类别失衡。当使用中立标签的句子训练模型时,输出概率不应明显偏向于任何类。

余下的 1608 个句子被标记为原告胜诉或败诉,这些句子属于案件文件的判决。每类的句子数量为:

1.原告败诉,并对原告产生负面影响——226

2.原告败诉,但对原告产生正面影响——230

3.原告胜诉,但对原告产生负面影响——687

4.原告胜诉,并对原告产生正面影响——465

由于美国最高法院的大多数案件都是上诉人提出的上诉,因此对上诉人产生不利影响的判决数量略有增加。

多分类模型


本研究使用的多分类模型包括三个组成部分:词向量模型、平均池化层和全连接层。使用 BertTokenizer 进行分词。词向量模型使用维基百科上预训练的 t-base-cased 模型。最终的全连接层节点数与类别数相同。

063b0c63d5f86d4912236dff82960f1b.png

图1. 模型结构

BERT Tokenizer 被配置为为给定输入文本中识别的单词和子单词生成标记,并创建一个 128 长的填充标记序列,还生成了一个输入掩码,以便 Bert 模型能够区分表示文本的符号。

BERT 模型为单个 token 生成 768 维的 embedding。为了获得输入文本序列的统一表示,Reimers 和 Gurevych 提到了 3 种技术:使用 [CLS] 的 embedding,取每个维度上 token embedding 的平均值(mean Pooling),取每个维度上 embedding 的最大值(Max Pooling)。使用均值池来获得提供给模型作为输入的句子的广义表示。根据 Devlin 等人的说法,对下游分类任务进行微调的 BERT 通常会产生比对特定领域使用预先训练的单词嵌入更好的结果。模型使用句子转换器 Git 库实现,分类任务代码使用 PyTorch 实现。

任务相关的损失函数


adee8a9e43f8e718a2ad27e3d7b44a1c.png

分类交叉熵损失是一种最有希望用于多分类任务的损失函数。交叉熵损失仅使用标记类的概率计算。


但研究定义了一个新的损失函数,它考虑了其他类的概率,而不是标记类的概率。本文中讨论的分类任务包含四个类,根据法院案件的判决可以分为两个极性。在算法 1 中定义了损失函数,它考虑了类的极性。

500d4139ac2edce4374992eabcb421ec.png

损失函数的目标是对不同类别的概率进行惩罚。例如,当标签是“原告失败”和“消极”时,相反的类别是“原告获胜”和“消极”,“原告获胜”和“积极”。在法律领域的上下文中,预测一个句子出现在原告败诉的案件文件中,而该句子出现在原告胜诉的案件中,与预测错误的情绪相比,这是一个严重的错误。

算法 1 取模型最后一层每个节点的输出,然后使用 Softmax,如公式 1 所示,得到每个类的概率,其中 xi 是第 i 个节点的输出。

80a0d842f56dbbe97c27b6c2fb4cc49d.png

MidClassIndex 字段表示转换极性的类索引。根据以上四个类别,类别指数 0 和 1 表示原告输极性,类别指数 2 和 3 表示原告赢极性。根据 case 句子的标签,一个权重被动态地应用到相反类的概率损失上。标签类的权重为 0。与标记的类具有相同极性的类的权重为 1。

ef8e199bd118491fbea03be3cc34564a.png

一个输入句的总损失是每一类的累计损失。

实验分析


从准备的 1608 个标记的案例句子中,根据表 4 创建了训练集、验证集和测试集。这项研究使用过采样和过采样技术来缓解训练集中的类别不平衡。

a83a31efdae94c09437eb7eeda4ed732.png

在过度抽样方法中,从较低句子数的 3 个类中重复样本,以匹配上诉人获胜的次数。


相比之下,欠采样方法减少了 3 个数量较多的类的样本,以匹配样本数量最少的类。使用这两种组合的数据集来训练分类模型,首先使用分类交叉熵损失训练,然后使用任务特定损失函数训练。团队实验了相反的类减重超参数,指标比较如表三所示。

db52c33995b2880928d85f1017e5459d.png

每个模型训练最多 8 个 epoch,以避免过拟合。然后用验证精度最好的模型权重对测试集进行评价。从表三可以看出,与分类交叉熵损失相比,任务相关的损失函数对句子分类具有更好的优化效果。由于考虑了与领域相关的案例决策极性,任务特定损失函数的准确性得以提高。

总结与展望


这项采用基于 transformer 编码的输入句和基于任务的损失函数,获得了较好的分类结果。在法律领域背景下训练分类模型时,任务特定损失函数的性能优于当前最先进的分类交叉熵损失。使用任务特定丢失函数和更多注释数据自动识别关键句,以提高模型性能,有望减少法律专业人员的人工分析工作。未来,团队希望开发一个自然语言推理(NLI)数据集以及法律领域的语义相似度评分(STS),并使用该数据集来优化和评估句子向量模型。

 
 
 
 
 
 
 
 
 
 
往期精彩回顾




适合初学者入门人工智能的路线及资料下载机器学习及深度学习笔记等资料打印机器学习在线手册深度学习笔记专辑《统计学习方法》的代码复现专辑
AI基础下载黄海广老师《机器学习课程》视频课黄海广老师《机器学习课程》711页完整版课件

本站qq群955171419,加入微信群请扫码:

35aa679199f36103b7239af3ef6a0b0d.png

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值