全文共 2617字,预计学习时长 5分钟
可解释性仍是现代深度学习应用中最严峻的挑战之一。随着计算模型和深度学习研究领域不断进展,如今可建立包含数千隐藏神经层和上千万神经元的复杂模型。尽管在深度神经网络模型上取得巨大进步似乎还算简单,但理解这些模型的创建和推理过程仍是一大难题。
最近,Google Brain团队发布了一篇文章,提出通过使用一种叫做概念激活向量的方法从新角度理解深度学习模型的可解释性。
传送门:https://arxiv.org/pdf/1711.11279.pdf?source=post_page---------------------------
可解释性VS准确性
要理解概念激活向量技术,必须先理解深度学习模型中普遍存在的可解释性难题。就目前的深度学习技术而言