1.目前主流的深度神经网络没有办法以一种从人类角度完全理解的模型和决策。
2.面临准确率和模型复杂度之间的权衡,一个模型越复杂就越难以解释。
3.相比简单的线性回归,深度神经网络处于另一个极端,因为它们能够在多个层次进行抽象推断,所以它们可以处理因变量与自变量之间非常复杂的关系,并且达到非常高的精度。但是这种复杂性也使模型成为黑箱,我们无法获知所有产生模型预测结果的特征之间的关系。所以我们只能用准确率、错误了等评价标准来替代,进而评估模型的可信性。
4.机器学习的可解释性也可以很好地帮助我们识别和防止偏差,比如用于招聘的机器学习模型,揭示了在特定职位上的性别偏差,比如男性软件工程师和女性护士。
5.机器学习本身由算法组成,该算法试图从数据中学习潜在的模式和关系,而无须硬编码固定规则。数据科学家通常致力于构建模型并为业务提供解决方案。