作者:Lars Hulstaert
翻译:吴金笛
校对:Nicola
本文约2000字,建议阅读9分钟。
本文将讨论一些可用于解释机器学习模型的不同技术。
大多数机器学习系统需要能够为利益相关者解释为何做出这样特定的预测。 在选择合适的机器学习模型时,我们通常会在准确性与可解释性之间权衡:
准确与“黑盒”:
诸如神经网络,梯度增强模型或复杂集合之类的黑盒模型通常提供很高的准确性。 这些模型的内部工作难以理解,并且它们不能估计每个特征对模型预测的重要性,也不容易理解不同特征之间如何相互作用。
较弱的“白盒”:
另一方面,诸如线性回归和决策树之类的简单模型具备较弱的预测能力,并且不总能对数据集的固有复杂性建模(即,特征交互)。 但是这些却是很容易被理解和解释的。
图片来自Applied.AI
准确性与可解释性的权衡取决于一个重要的假设,即“可解释性是模型的固有属性”。