【AI论文精粹】透明度图灵测试;尖峰神经网络;NodePiece;脑电解码方法

本文介绍了透明度图灵测试,挑战了解释AI预测的直观性,提出评估人类对机器解释的信任度的度量。同时,文章探讨了尖峰信号在神经形态计算和EMG手势识别中的应用,展示其在节能计算的优势。此外,NodePiece是一种新的知识图谱表示学习方法,实现高效、参数节省的实体表示。最后,基于Transformer的EEG解码方法利用时空注意力提升了解码性能,达到BCI领域的先进水平。
摘要由CSDN通过智能技术生成

标题:透明度图灵测试

时间:2021.6.21

作者:Felix Biessmann, Viktor Treu

机构:无

链接:https://arxiv.org/abs/2106.11394

简介:

可解释人工智能(XAI)的一个中心目标是改善人工智能交互中的信任关系。透明人工智能系统研究的一个假设是,解释有助于更好地评估机器学习(ML)模型的预测,例如,使人类能够更有效地识别错误预测。然而,最近的经验证据表明,解释可能产生相反的效果:当提出ML预测的解释时,人类往往倾向于相信ML预测,即使这些预测是错误的。实验证据表明,这种效应可以归因于人工智能或解释的直观程度。这种效应挑战了XAI的目标,这意味着负责任地使用透明AI方法必须考虑到人类区分机器生成和人类解释的能力。本文提出了一种基于图灵模拟博弈的XAI方法的量化度量,即图灵透明性检验。询问者被要求判断一个解释是由人还是由XAI方法生成的。在这个二进制分类任务中,人类无法检测到的XAI方法的解释通过了测试。检测这样的解释是评估和校准人工智能交互中的信任关系的一个必要条件。我们在一个众包文本分类任务上给出了实验结果,证明即使对于基本的ML模型和XAI方法,大多数参与者也无法区分人类和机器生成的解释。我们讨论了我们的结果对透明ML应用的伦理和实践意义。

标题:用于神经形态调节水库计算和 EMG 手势识别的尖峰信号

时间:2021.6.22

作者:Nikhil Garg, 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值