可解释性
文章平均质量分 85
咆哮的大叔
给儿子树立一个爱写博客的好榜样。
展开
-
Interpretable Convolutional Neural Networks研读
(感觉跟上一篇看的可解释cnn没什么差别,都是在高层的卷积层中的每个卷积核加一个loss,查看代码,所加的loss就logistic或者softmax,正在学习中,如果理解有误的地方,敬请谅解并欢迎指出)摘要:为了解释高层卷积层CNN中的知识表示,本文在传统CNN基础上提出可解释CNN。可解释CNN,能够在高层卷积层的每个卷积核代表一个特定的目标部件(比如猫头,猫脚等).可解释CNN,使用传统的训练集训练,不作任何部件标注,能够在学习阶段给高层卷积层的卷积核自动分配每个特定部件。可以将可解释CNN应用在原创 2021-01-07 15:31:53 · 1115 阅读 · 0 评论 -
Interpretable CNNs for Object Classification 研读
摘要:在分类任务中,本文提出一个在深度神经网络中学习可解释性CNN的方法。在此方法中,在深层的可解释性CNN中,每个核可以解码目标的特定部件。我们使用常规数据集,不需要对数据额外的标注或者提供纹理信息作为监督训练。我们的方法在学习过程中,能够自动对高层卷积网络的每个核分配一个目标部件类别。可解释性CNN中,显性知识表示可以帮助人们理解CNN的内部逻辑结构,即对于一张输入图像CNN提取的什么模式用来预测。实验表示,可解释性卷积网络比传统卷积更加有语义意义。背景几年来,卷积网络在不同的领域中都取得很优异的原创 2021-01-04 11:17:39 · 793 阅读 · 0 评论