中文标题:过程挖掘中的可解释人工智能:评估面向结果的预测过程监控中的可解释性性能权衡
英文标题:Explainable Artificial Intelligence in Process Mining: Assessing the Explainability-Performance Trade-Off in Outcome-Oriented Predictive Process Monitoring
时间:2022.3.30
作者:Alexander Stevens, Johannes De Smedt
机构:鲁汶大学
链接:https://arxiv.org/pdf/2203.16073.pdf
简介:
最近,以结果为导向的预测过程监控(OOPPM)领域发生了转变,使用可解释人工智能范式中的模型,但评估仍然主要通过基于绩效的指标进行,而不是考虑解释的含义和缺乏可操作性。在本文中,我们通过解释的可解释性(通过广泛使用的XAI属性简约性和功能复杂性)和解释性模型的可信度(通过单调性和不一致程度)来定义可解释性。从事件、案例和控制流的角度分析引入的属性,这是基于流程的分析的典型特征。除其他外,这允许对固有的解释(如逻辑回归系数)与事后解释(如Shapley值)进行定量比较。此外,本文还提供了一个名为X-MOP的指南,帮助从业者根据事件日志规范和手头的任务选择合适的模型,深入了解OOPPM中典型的不同预处理、模型复杂性和事后解释性技术如何影响模型的可解释性。为此,我们在13个真实事件日志上对7个分类器进行了基准测试。
中文标题:一种基于大脑的低维计算分类器,用于在微型设备上进行推理
英文标题:A Brain-Inspired Low-Dimensional Computing Classifier for Inference on Tiny Devices
时间:2022.3.9
作者:Shijin Duan, Xiaolin Xu, Shaolei Ren
机构:东北大学、加州大学
链接:https://arxiv.org/pdf/2203.04894.pdf
简介:
通过模仿类似大脑的认知并利用并行性,超维计算(HDC)分类器已经成为一个轻量级框架,以实现高效的设备上推理。然而,它们有两个基本缺点,即启发