可视化神经网络的一些方法

原文为http://cs231n.github.io/understanding-cnn/   


可视化CNN学到的东西

有一些方法可以用来理解和可视化CNN, 作为对深度学习不可解释的论述的反击。


1. 可视化激活值和第一层卷积的权重

最直接的可视化方法就是展示在前向传播(forward pass)网络中的激活值(activation)

对于带relu的网络,激活值的map在开始的层会密集,之后逐渐稀疏。

一个陷阱是你可以注意到一些map,他们对于不同输入,永远响应是全零图。(换句话说,他们对于网络没有贡献)

他们成为了dead filter,这可能是由于高的learning rate导致的。


第二个方法是可视化网络中的权重。 通常第一个conv的filter是最容易解释的,但也是可以可视化其他filter。

在well-trained的网络中filter往往记忆了一些好看和平滑的filter,如果出现了noise 的可视化结果可能你网络没有train足够,

或者正则项太小了(weight decay),导致过拟合了。


2.找图片中 激活值最大的区域

另一个可视化技巧是 拿一堆图片把它们前馈到网络中,找到图片中哪一部分激活值最大。

然后我们可以画出图片。看看对应的receptive field。

(接受域:这个值之前从那些区域的值计算得到的。比方你一次3*3卷积得到一个value,这个value的接受域是3*3

如果3*3中每个值,是由再之前原图3*3得到的,我们不考虑overlap的话,这个value在原图的接受域就是9*9)


3. 用tSNE来embedding

convent是把图片慢慢变成一个表达(这个表达最后可以用线性分类器分类)的过程。

我们可以把图像embedding到2维表达,然后用二维画到图上表达相似的关系。

在这些embedding 到2维方法中,比较有名的方法是tSNE产生视觉上pleasing的结果。


首先,产生一个embedding,我们需要用一些图片通过CNN(比如Alexnet,最后fc 4096维的结果)

我们把他扔到tSNE中每张图得到对应的一个2维向量。然后我们可以把这个2维向量看成坐标,扔到grid里。


4. 遮挡图片的一部份

假设Convnet识别出了一条狗。那么会不会是狗的背景,让cnn识别出狗,而不是狗本身呢?

一种方法是 遮挡图片的一部分 然后看狗那一类的激活值。

按照我们所想,如果遮住狗的话,那判断为狗的激活值应该显著下降。




阅读更多
想对作者说点什么?

博主推荐

换一批

没有更多推荐了,返回首页