标题:透明度图灵测试
时间:2021.6.21
作者:Felix Biessmann, Viktor Treu
机构:无
链接:https://arxiv.org/abs/2106.11394
简介:
可解释人工智能(XAI)的一个中心目标是改善人工智能交互中的信任关系。透明人工智能系统研究的一个假设是,解释有助于更好地评估机器学习(ML)模型的预测,例如,使人类能够更有效地识别错误预测。然而,最近的经验证据表明,解释可能产生相反的效果:当提出ML预测的解释时,人类往往倾向于相信ML预测,即使这些预测是错误的。实验证据表明,这种效应可以归因于人工智能或解释的直观程度。这种效应挑战了XAI的目标,这意味着负责任地使用透明AI方法必须考虑到人类区分机器生成和人类解释的能力。本文提出了一种基于图灵模拟博弈的XAI方法的量化度量,即图灵透明性检验。询问者被要求判断一个解释是由人还是由XAI方法生成的。在这个二进制分类任务中,人类无法检测到的XAI方法的解释通过了测试。检测这样的解释是评估和校准人工智能交互中的信任关系的一个必要条件。我们在一个众包文本分类任务上给出了实验结果,证明即使对于基本的ML模型和XAI方法,大多数参与者也无法区分人类和机器生成的解释。我们讨论了我们的结果对透明ML应用的伦理和实践意义。
标题:用于神经形态调节水库计算和 EMG 手势识别的尖峰信号
时间:2021.6.22
作者:Nikhil Garg,