XAI-可解释的人工智能

       机器学习的巨大成功导致了大量的人工智能(AI)应用程序。 持续的进步有望产生能够自我感知,学习,决定和行动的自主系统。 然而,这些系统的有效性受到机器当前无法向人类用户解释其决策和行动的限制(上图)。 国防部(DoD)面临着需要更智能,自主和共生系统的挑战。 如果未来的战士能够理解,适当地信任并有效地管理新一代的人工智能机器合作伙伴,那么可解释的人工智能 - 特别是可解释的机器学习 - 将是必不可少的。

      可解释AI(XAI)计划旨在创建一套机器学习技术:

  • 产生更多可解释的模型,同时保持高水平的学习成绩(预测准确性); 和
  • 使人类用户能够理解,适当地信任并有效地管理新一代人工智能合作伙伴。

       新的机器学习系统将能够解释它们的基本原理,表征它们的优点和缺点,并传达对它们将来如何表现的理解。 实现该目标的策略是开发新的或改进的机器学习技术,以产生更多可解释的模型。 这些模型将结合最先进的人机界面技术,能够将模型转化为最终用户可理解和有用的解释对话(下图)。 我们的策略是采用各种技术,以生成一系列方法,为未来的开发人员提供一系列涵盖性能与可解释性交易空间的设计方案。

       XAI是当前DARPA少数计划之一,旨在实现“第三代AI系统”,其中机器了解其运行的环境和环境,并随着时间的推移构建底层解释模型,使其能够表征现实世界现象。

       XAI计划通过解决两个领域的挑战问题,专注于多系统的开发:(1)机器学习问题,用于对异构多媒体数据中感兴趣的事件进行分类; (2)机器学习问题,为自治系统构建决策策略,以执行各种模拟任务。

      此外,研究人员正在研究解释的心理学。

       XAI研究原型在整个项目过程中经过测试和持续评估。 在2018年5月,XAI研究人员展示了他们可解释学习系统的初步实施,并展示了他们的第一阶段评估的初步试点研究结果。 预计2018年11月将进行全阶段1系统评估。

参考

https://www.darpa.mil/program/explainable-artificial-intelligence

  • 1
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
xai方法是指解释人工智能模型如何进行决策的一种透明化技术。xai代表可解释人工智能(Explainable Artificial Intelligence)。人工智能模型通常是由大量数据训练而成的,而这些模型的决策过程常常被视为黑盒子,难以理解。xai方法的目的就是帮助我们理解和解释人工智能模型的决策过程,使其更加透明和可信赖。 xai方法可以通过多种方式实现。其中,一种常见的方法是生成可解释的决策规则。通过分析和解释模型中的参数、权重和特征,我们可以得出一些可理解和可解释的规则,从而理解模型是如何做出决策的。 另外,xai方法还可以通过可视化技术来实现。通过将模型的输入和输出可视化,我们可以更直观地理解模型的决策过程。例如,我们可以将模型对不同输入的判断结果可视化为热力图或者决策树等形式,从而帮助我们理解模型的思考过程。 xai方法的应用领域非常广泛。在医疗诊断中,如果一个人工智能模型给出了一个疾病的预测结果,我们希望能够知道模型是基于哪些特征做出了预测,以增加结果的可信度。在金融领域,人工智能模型可以用于风险评估和预测,而xai方法可以帮助我们理解模型是如何分析和评估风险的,从而为决策者提供更好的支持。 总的来说,xai方法旨在提高人工智能模型的可解释性和可信度,在许多应用领域中具有重要的意义。通过解释模型的决策过程,我们可以更加理解和信任人工智能模型,从而更好地应用和推广人工智能技术。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值