论文名称:Explainable Legal Case Matching via Inverse Optimal Transport-based Rationale Extraction
论文ArXiv下载地址:https://arxiv.org/abs/2207.04182
论文SIGIR官方下载地址:https://dl.acm.org/doi/abs/10.1145/3477495.3531974(包含官方讲解视频)
此外AIS 2022也有这篇论文的分享,可参考我之前写的笔记博文ACL-IJCAI-SIGIR顶级会议论文报告会(AIS 2022)笔记2:分析与可解释性,其中第5个就是本篇论文。
官方GitHub项目:ruc-wjyu/IOT-Match
本文是SIGIR2022论文,作者来自人大和华为。
法律案例匹配在法律检索领域非常重要,这一任务对可解释性有高要求。因此本文提出IOT-Match模型,将法律案例匹配问题构建为逆向最优运输(IOT)问题。
现存方法大多关注法律案例句子级别的相似性,而IOT-Match关注基于句子的语义和legal characteristics从成对的法律案例中抽取rationales。抽取出的rationales还可用于提供可信解释和指导匹配。
IOT-Match还对匹配标签不足的问题鲁棒,因此对有监督和半监督范式都可用。
本文还在CAIL数据集的基础上提出了ELAM (Explainable Legal cAse Matching),包含案例匹配标签及其rationales、对齐和标签的自然语言解释。
这篇我实在是没看懂,很离谱,这玩意太数学了,以后有缘分了再看吧。
1. Background
计算最优运输准备以后慢慢看的参考资料:
- 优化 | 计算最优传输(Computational Optimal Transport) - 知乎
- 运筹千里纵横论坛|王祥丰:计算最优传输及其应用浅谈_哔哩哔哩_bilibili
- The Book - Computational Optimal Transport
- 数值优化与分布式优化 - 知乎
法律案例匹配关注识别成对法律案例之间的关系。这对普通法系和民法系的判案决策都有参考价值。
现存方法有基于PCNet1和基于Bert2的,这些方法的问题在于无法对匹配结果提供有说服力的、忠实的解释。
在篇幅长的法律文书中,只有rationales表征支持匹配结果的legal characteristics和对应的解释。但现存方法会忽略rationales和其他句子的角色差异。
此外,理想的解释还需要正负两方面的理由。但现存各领域的rationales抽取方法都不能实现这一点。
最后,标记解释(不同案例的对齐rationales)昂贵、稀疏、有偏(仅正确标记少量正样本对,存在海量负样本对)。因此有监督方法往往会导致次优匹配结果和不可靠的解释。
IOT-Match将正负rationales的抽取和匹配视作最优运输问题,由一个反应跨案例句子之间语义和legal characteristic关系的、可学习的affinity matrix来指导,这个affinity matrix由逆向最优运输过程学习,即需解决一个bi-level optimization problem。这样,IOT-Match学习直接抽取正负rationales。然后将抽取出的rationales输入预训练模型生成匹配结果的label-specific自然语言解释。为了去除噪声句并对正负理由赋权,最终匹配结果基于抽取出的rationales和label-specific解释生成。
related work部分包含法律案例匹配和legalAI可解释性两部分,细节待补。
2. 问题定义与模型构建
2.1 问题定义
每对标注数据包含:
-
案例 X X X(BERT句子嵌入集合)
-
rationale labels r X / Y \mathbf{r}^{X/Y} rX/Y(与句子嵌入集合对应)
-
binary alignment matrix A ^ \hat{A} A^(rationales之间的语义关系)
-
mathing label z z z
-
解释 z z z的句子集合 e e e
公式中的全等于表示语义上相似。 a ^ \hat{a} a^表示对应rationales是否对齐,给匹配结果提供正负证据。
示例:
可解释的法律案例匹配:①抽取对齐和非对齐的rationales。②从中抽取出候选解释。③生成最终匹配标签和解释。
2.2 模型原理
因为最优运输这块我完全不懂,所以论文说啥我就当是啥了:
给出两个句子表征集合(
X
X
X和
Y
Y
Y),我们假设其实证分布是uniform的:
离散地计算最优运输距离……底下的没看懂,懒得粘了,以后看懂了再说吧。
2.3 IOT-based Rationale Extraction
2.4 Generating Candidate Explanations
3. 实验
实验目标是:
- 超过带解释的法律案例匹配和文本匹配的SOTA模型的匹配准确度
- 解释(包括抽取的rationales和生成自然语言)效果
- 利用有限的rationale alignment labels
以下细节待补。
3.1 数据集ELAM&eCAIL
3.2 baseline
无解释的:
- Sentence-Bert
- lawformer
- BERT-PLI
- Thematic Similarity
带解释的:
- NILE
- LIREx
rationale extraction:
- MT-H-LSTM
- MLMC
- DecAtt
3.3 实验设置
3.4 主实验结果
3.5 实验分析
3.5.1 Ablation Study
3.5.2 Case Study
4. 代码复现
等我服务器好了再说。
参考文献:Similarity analysis of legal judgments
对PCNet的介绍可参考我之前写的博文:Re8:读论文 Hier-SPCNet: A Legal Statute Hierarchy-based Heterogeneous Network for Computing Legal Case ↩︎BERT-PLI: Modeling Paragraph-Level Interactions for Legal Case Retrieval和Lawformer: A Pre-trained Language Model for Chinese Legal Long Documents ↩︎