过程挖掘中的可解释人工智能:评估面向结果的预测过程监控中的可解释性性能权衡;一种基于大脑的低维计算分类器,用于在微型设备上进行推理;具有脉冲神经元的脑激励多层感知器;SIT:一种用于脉冲神经网络的仿生

本文集探讨了可解释人工智能在过程挖掘中的应用,评估了面向结果的预测过程监控中的可解释性与性能权衡。另外,介绍了基于大脑的低维计算分类器,它在微型设备上进行推理时提高了精度,同时显著降低了模型维度。此外,还提出了脑激励多层感知器和新型非线性神经元模型,以增强脉冲神经网络的性能和生物合理性。这些研究为理解和优化神经网络模型提供了新视角。
摘要由CSDN通过智能技术生成

中文标题:过程挖掘中的可解释人工智能:评估面向结果的预测过程监控中的可解释性性能权衡
英文标题:Explainable Artificial Intelligence in Process Mining: Assessing the Explainability-Performance Trade-Off in Outcome-Oriented Predictive Process Monitoring
时间:2022.3.30
作者:Alexander Stevens, Johannes De Smedt
机构:鲁汶大学
链接:https://arxiv.org/pdf/2203.16073.pdf
简介:
最近,以结果为导向的预测过程监控(OOPPM)领域发生了转变,使用可解释人工智能范式中的模型,但评估仍然主要通过基于绩效的指标进行,而不是考虑解释的含义和缺乏可操作性。在本文中,我们通过解释的可解释性(通过广泛使用的XAI属性简约性和功能复杂性)和解释性模型的可信度(通过单调性和不一致程度)来定义可解释性。从事件、案例和控制流的角度分析引入的属性,这是基于流程的分析的典型特征。除其他外,这允许对固有的解释(如逻辑回归系数)与事后解释(如Shapley值)进行定量比较。此外,本文还提供了一个名为X-MOP的指南,帮助从业者根据事件日志规范和手头的任务选择合适的模型,深入了解OOPPM中典型的不同预处理、模型复杂性和事后解释性技术如何影响模型的可解释性。为此,我们在13个真实事件日志上对7个分类器进行了基准测试。

中文标题:一种基于大脑的低维计算分类器,用于在微型设备上进行推理
英文标题:A Brain-Inspired Low-Dimensional Computing Classifier for Inference on Tiny Devices
时间:2022.3.9
作者:Shijin Duan, Xiaolin Xu, Shaolei Ren
机构:东北大学、加州大学
链接:https://arxiv.org/pdf/2203.04894.pdf
简介:
通过模仿类似大脑的认知并利用并行性,超维计算(HDC)分类器已经成为一个轻量级框架,以实现高效的设备上推理。然而,它们有两个基本缺点,即启发

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值