Self-explaining deep models with logic rule reasoning
参考:https://www.techbeat.net/talk-info?id=729
1.背景:
深度学习有高的预测性能,但可解释性不足,目前已经不少方法通过后处理来提供解释,但还是会有不安全感,但自可解释(通过正向传播同时预测和解释)是由自己给出,不是第三方近似给出,我们可以信任这个解释,且它可以融合用户反馈。
但自解释还不够,只有它,模型只从模型本身的角度进行解释,没有将解释映射到人很容易理解,且觉得非常合理的空间去,因此要用logic rules。
本文将深度模型升级为具有逻辑规则推理能力的自我解释版本,SELOR。
贡献:
- 工作表明,人类的精确性是自我解释模型无缝连接人类逻辑和模型决策逻辑的关键。基于逻辑的解释能够实现高人类精度,同时实现高预测性能。
- 提出了一种逻辑规则推理框架,通过自然地将人类先验、规则置信度建模和规则生成作为模型预测的重要部分,将给定的深度模型升级为可自我解释的版本。方法可以在不依赖强大的外部知识(例如关于规则的实例级指导、知识图或少量规则候选)的情况下实现高人类精度。
- 数值实验和用户研究证实了我们的框架在保持预测性能的同时,在人类精度和对噪声标签的鲁棒性方面的关键优势。
2.思路
2.1概念
human precision: