论文-深度自可解释模型

Self-explaining deep models with logic rule reasoning
参考:https://www.techbeat.net/talk-info?id=729

1.背景:

深度学习有高的预测性能,但可解释性不足,目前已经不少方法通过后处理来提供解释,但还是会有不安全感,但自可解释(通过正向传播同时预测和解释)是由自己给出,不是第三方近似给出,我们可以信任这个解释,且它可以融合用户反馈。
但自解释还不够,只有它,模型只从模型本身的角度进行解释,没有将解释映射到人很容易理解,且觉得非常合理的空间去,因此要用logic rules
本文将深度模型升级为具有逻辑规则推理能力的自我解释版本,SELOR。

贡献:

  1. 工作表明,人类的精确性是自我解释模型无缝连接人类逻辑和模型决策逻辑的关键。基于逻辑的解释能够实现高人类精度,同时实现高预测性能。
  2. 提出了一种逻辑规则推理框架,通过自然地将人类先验、规则置信度建模和规则生成作为模型预测的重要部分,将给定的深度模型升级为可自我解释的版本。方法可以在不依赖强大的外部知识(例如关于规则的实例级指导、知识图或少量规则候选)的情况下实现高人类精度。
  3. 数值实验和用户研究证实了我们的框架在保持预测性能的同时,在人类精度和对噪声标签的鲁棒性方面的关键优势。

2.思路

2.1概念

human precision:

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值