机器学习及解释
文章平均质量分 84
记下记下
Hi..
展开
-
机器学习解释(8)DALEX包,第三类-Local-diagnostics Plots
尽管模型的预测性能总体上令人满意,但模型对某些观测值的预测却非常糟糕。在这种情况下,人们常说“模型不能很好地覆盖输入空间的某些区域”。例如,拟合某家医院的“典型”患者数据的模型对于来自另一家医院的患者可能表现不佳,这些患者可能具有不同的特征。或者,为评估春假消费贷款风险而开发的模型在圣诞礼物的秋季贷款中可能表现不佳。因此,在做出重要决策的情况下,有必要检查模型在本地的行为,以处理与感兴趣实例类似的观测值。在本章中,我们将介绍两种解决此问题的本地诊断技术。翻译 2024-05-30 08:45:00 · 22 阅读 · 0 评论 -
机器学习解释(7)DALEX包,第三类-Ceteris-paribus Oscillations
如上一章所示,对 ceteris-paribus (CP) 剖面的目视检查是有见地的。但是,如果模型具有大量解释变量,我们最终可能会得到大量可能不堪重负的图。在这种情况下,选择最有趣或最重要的配置文件可能很有用。在本章中,我们将介绍一种可用于此类目的的度量,该度量值与 CP 配置文件直接相关联。翻译 2024-05-29 09:00:00 · 26 阅读 · 0 评论 -
机器学习解释(6)DALEX包,第三类-Ceteris-paribus Profiles
第 6-9 章重点介绍了在单实例预测的背景下量化解释变量重要性的方法。它们的应用将预测分解为可归因于特定变量的组件。在本章中,我们重点介绍一种方法,该方法根据变量值的变化引起的模型预测变化来评估所选解释变量的影响。该方法基于ceteris paribus原则。“Ceteris paribus”是一个拉丁语短语,意思是“其他事物保持不变”或“所有其他事物保持不变”。该方法通过假设所有其他变量的值不变来检查解释变量的影响。主要目标是了解变量值的变化如何影响模型的预测。翻译 2024-05-29 08:00:00 · 40 阅读 · 0 评论 -
机器学习解释(5)DALEX包,第二类-Local Interpretable Model-agnostic Explanations (LIME)
在第 6 章和第 8 章中分别介绍的细分 (BD) 图和 Shapley 值最适合具有少量或中等解释变量的模型。这些方法都不适合具有大量解释变量的模型,因为它们通常确定模型中所有变量的非零属性。然而,在基因组学或图像识别等领域,具有数十万甚至数百万个解释(输入)变量的模型并不少见。在这种情况下,具有少量变量的稀疏解释提供了一个有用的替代方案。这种稀疏解释器最流行的例子是局部可解释模型无关解释 (LIME) 方法及其修改。翻译 2024-05-31 17:21:20 · 787 阅读 · 0 评论 -
机器学习解释(4)DALEX包,加法归因-Shapley Additive Explanations (SHAP) for Average Attributions
在第 6 章中,我们介绍了细分 (BD) 图,这是一种用于计算模型预测的解释变量归属的过程。我们还指出,在存在交互作用的情况下,归因的计算值取决于计算中使用的解释协变量的顺序。第 6 章中介绍的这个问题的一个解决方案是找到一个将最重要的变量放在开头的顺序。第 7 章中描述的另一种解决方案是识别交互作用并明确呈现它们对预测的贡献。在本章中,我们将介绍另一种解决排序问题的方法。它基于对所有(或大量)可能的排序的变量属性值进行平均的想法。翻译 2024-05-28 09:00:00 · 86 阅读 · 0 评论 -
机器学习解释(3)DALEX包,加法归因-break down for interactions
上一章中,我们提出了一种与模型无关的方法来计算解释变量对模型预测的归属。但是,对于某些模型,例如具有交互作用的模型,其中介绍的方法的结果取决于计算中使用的解释变量的顺序。在本章中,我们将介绍一种解决该问题的算法。特别是,该算法识别变量对之间的相互作用,并在构建细分 (BD) 图时将其考虑在内。在我们的演示中,我们重点关注涉及成对解释变量的成对交互,但该算法可以很容易地扩展到涉及大量变量的交互。翻译 2024-05-28 08:15:00 · 37 阅读 · 0 评论 -
机器学习解释(2)DALEX包,加法归因-break down
在本节中,我们将更正式地介绍变量归因的方法。我们首先关注线性模型,因为它们的简单和加法结构允许建立直觉。然后我们考虑一个更普遍的情况。翻译 2024-05-27 19:18:04 · 79 阅读 · 0 评论 -
机器学习解释(1)DALEX包,instance-level
机器学习解释,DELAX包翻译 2024-05-27 17:41:04 · 32 阅读 · 0 评论