NLP中的可解释性AI

NLP中的可解释性AI

本文是学习哈工大张挺教授作的报告的笔记

链接:https://mp.weixin.qq.com/s/ChDfxbKGUORjIM0PW8U68g

XAI in NLP

NLP中的可解释AI主要分两种方法

  • 透明模型
  • 事后解释

透明模型包括词袋模型这样的可以从结果看出模型推理的过程,或者说公式明确的模型;事后解释的典型是神经网络这样的黑盒模型,在模型得出结果后,才根据结果猜测模型内部发生了什么。

XNLP & XCV

NLP和CV都可以通过注意力机制高亮对应区域给出一定的解释性,相比于CV,NLP还可以输出一些解释文本,比如结构化的知识图谱,推理路径等。

白盒透明模型设计

报告中介绍了哈工大工作:基于自然逻辑的多项选择问答,自然逻辑又是基于语义单调性的,语义单调性包含了七种基本的语义关系。这种语义分析方式我也是第一次见。同时采用证据推理 支持问答任务。

黑盒事后解释

样例驱动

这种思路最好的例子就是KNN,模型的结果可以根据数据集中的样本给出解释性。

还有一个例子是哈工大的舆情分析中的可解释性,运用了图神经网络的方法,构建子图,提取关键词、句,作为解释情绪的原因。

注意力机制

一个例子是阅读理解任务中自注意力矩阵的构成,也是哈工大课题组的工作,矩阵中包含了Q2Q,P2P,Q2P,P2Q 。P Q 分别代表Passage Query。最终结果表明,P2Q(答案验证)和P2P(篇章理解)是影响阅读理解任务结果的最主要原因。

探针方法

探针方法使用模型获得的编码表征训练一个分类器,根据分类结果,探索“编码表征”中是否包含了语言学知识:词性、句法、语义等。

一个例子在对话中加入QA对,人工构造问题来判断模型是否理解对话中的指代和消解。

报告后文还有一些无监督文本生产的解释,以及可解释性的评价。详情可见报告原文。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值