全文共2617字,预计学习时长5分钟
可解释性仍是现代深度学习应用中最严峻的挑战之一。随着计算模型和深度学习研究领域不断进展,如今可建立包含数千隐藏神经层和上千万神经元的复杂模型。尽管在深度神经网络模型上取得巨大进步似乎还算简单,但理解这些模型的创建和推理过程仍是一大难题。最近,Google Brain团队发布了一篇文章,提出通过使用一种叫做概念激活向量的方法从新角度理解深度学习模型的可解释性。
传送门:https://arxiv.org/pdf/1711.11279.pdf?source=post_page---------------------------
可解释性VS准确性
要理解概念激活向量技术,必须先理解深度学习模型中普遍存在的可解释性难题。就目前的深度学习技术而言,保证模型准确性和人为解释模型实现原理之间一直存在阻力。可解释性-准确性之间的矛盾在于能够完成复杂任务和真正理解任务如何完成之间的差别。平衡好准确性和可解释性的关系,也就相当于理解了知识VS控制,性能VS可靠度,效率VS简洁性之间的矛盾。
应该注重取得最好结果还是注重理解结果产生的过程?在任何深度学习场景中,数据科