FeatureMap Viewer以及中心化对统计分布变化的影响讨论

Introduction

准备做一个feature map浏览器,可以做些intuitive的观察。code在这里(tool目录下放的支持变形输入的module.py模块)。
可以支持对feature mapsoftmax output的浏览,其中feature map用了简单的平均化方法(可视化之前进行了归一化),这一方法似乎简洁有效,之前有fine grained的任务是照此进行的。

Similar Map

测试的时候,有一项是对feature map进行操作,用的是vgg16。偶然间发现没有经过mean处理的输入产生的feature map和经过的看起来没有什么区别,而probability有明显的变化。


1147367-20170918204934103-1530572705.png
Figure 1. 经过中心化的featuremap


1147367-20170918205007915-1452734037.png
Figure 2. 原图数据输入获得的featuremap

关于 softmax output的概率输出就不贴出来了,没什么说的。
但两个 feature map就有些意思了。

Exploration

从输入的数据上来看,两者有\(50\%\)的统计差距,在经过多次非线性映射后,表现出极为相似的map。一个容易想到的解释是,两者间有一个系数的差别,路上和大师兄说起,他第一感觉也是这样。
下面两个图是两个feature map 的histogram,这里注明一下,由于被抑制的元素很多(是非常多),所以统计范围区间设置为\([0.01,100]\)


1147367-20170918210141790-1284963322.png
Figure 3. Histogram-经过中心化的featuremap
1147367-20170918210217040-2077515903.png
Figure 4. Histogram-原始图数据的featuremap

上面第一张是经过中心化的,第二张没有。如果说是有一个系数的差异,似乎更容易接受两个分布是相同的!
如果说还需要确认其中有值得从理论上考察的理由,再来看看 第一个 Activation后Map的分布:

1147367-20170918210840775-1238246859.png
Figure 5. with mean
1147367-20170918210857728-1477519786.png
Figure 6. no mean

以上两图的也是按照 with meanno mean排列。大致上两个也可以认为是相同分布。

如果再脑补一下的话,还可以想象这些分布是一种正态分布,因为ReLU的存在被truncate了,只剩下正半部分,还可以继续脑补,如果权重也是一个正态分布(之前有过观察,发现确实是正太),另外从初始化方式上,也可以认为其符合。
之前Kaiming He有过一个关于初始化方法的方差理论,暗示在这个问题上还是可以过一把推导瘾的。

Formulation

\(x\sim\mathcal{N}(\mu,\sigma^2)\)是未经中心化的输入变量,\(z\sim\mathcal{N}(0,\delta^2)\)是中心化后的变量,\(w\)是一个零均值正态分布,独立是必须假设的:) 。需要注意的是,这些假定与实际是相当接近的。
经过一个卷积后,输出\(y\)的计算式:
\[ \begin{equation} y_i = \sum_jw_{ij}x_{j}\label{eq:output_y} \end{equation} \]
下面考察均值和方差两部分的差异。

均值

在上述假定的情况下,均值式计算如下:
\[ \begin{eqnarray} E[y_i] & = & E\left[ \sum_j w_{ij}x_{j} \right]\nonumber\\ & = & \sum_j E\left[ w_{ij}x_{j} \right]\nonumber\\ & = & \sum_j E[w_{ij}]E[x_j] \label{eq:mean} & = & 0 \end{eqnarray} \]

方差

如果方差计算出来也是相同的,那么理论与观察又产生了一种成就感。
\[ \begin{eqnarray} E\left[ \left( \sum_jw_{ij}x_j \right)^2 \right] & = & E\left[ \sum_j\left(w_{ij}x_j \right)^2 + \sum_j\sum_kw_{ij}w_{ik}x_kx_j \right]\label{eq:var1} \end{eqnarray} \]
\ref{eq:var1}中第二项根据相关假定,归结为\(0\),第一项,由独立假定处理。简化为:
\[ \begin{eqnarray} E\left[ \left( \sum_jw_{ij}x_j \right)^2 \right] & = & E\left[ \sum_j\left(w_{ij}x_j \right)^2 + \sum_j\sum_kw_{ij}w_{ik}x_kx_j \right]\nonumber\\ & = & \sum_jE[w_{ij}^2]E[x_j^2] \end{eqnarray} \]
这说明方差与\(x\)的均值是有关的。
考虑均值还是比较大的(\(150~vs.~[0,255]\)),所以,在两种情况下,情况应该是不同的,而且应该是有比较明显的不同

Bias

这里考虑一下bias存在的情况,此种情况对应\ref{eq:var1}中右式加上标量\(b\),容易得出,bias对方差的计算没有影响。

关于方差的进一步考察

上面关于方差的计算在我的直觉上,感觉是一致的,但却与观察上有冲突;我把推导的结论和大师兄讨论了下,他表述了不一样的直觉。我打算先把第一个conv的输入/输出做些对比。


1147367-20170922190932775-901269379.png
Figure 7. distribution of the conv1_1's output with subtracting mean

下图是没有经过减均值处理的输出分布:


1147367-20170922191606681-582841553.png
Figure 8. distribution of the conv1_1's output without subtracting mean

从图中并没有获得令人耳目一新的事物,但比较 titlevariance的值,却会有新的发现。
很自然的,这给了我去验证之前推导的公式的激励。我们再来看看第一层的 weight原始图像的分布:

1147367-20170922192217603-651561818.png
Figure 9. distribution of the conv1_1's weight**

下面这张是原始图像的分布(实际上这里只需要关注方差的变化了,所以是否经过减均值处理并不影响后面想要得出的结论)


1147367-20170922192502337-2090040012.png
Figure 10. distribution of the raw input image
Mathematical Formulation

数据已经足够,在开始进行数值验证前,再做一些假设以及验证方法的说明。
Note1
\ref{eq:mean}是对某一分量进行的求解,在此处,假定所有\(y_i\)都是独立同分布的,这样就变成对单个随机变量的求解,记这个随机变量为\(y\);同理,设置随机变量\(w,x\),并且用一个常量\(c\)替换求和操作,于是改写\ref{eq:mean}:
\[ \begin{equation} E[y^2]=cE[w^2]E[x^2]\label{eq:re-formulation-var-x} \end{equation} \]
Note2
再用\(\hat{y}\)表示经过中心化后的变量\(z\)经过卷基层后的输出随机变量:
\[ \begin{equation} E[\hat{y}^2] = cE[w^2]E[z^2]\label{eq:re-formulation-var-z} \end{equation} \]
Note3
于是验证的方法是比较通过\ref{eq:re-formulation-var-x}和\ref{eq:re-formulation-var-z}计算出来的\(c\)是否一致。
\ref{eq:re-formulation-var-x}:
\[ \begin{eqnarray} E[y^2] & = & cE[w^2]E[x^2]\nonumber\\ 10735 & = & 0.04\times 20208c\nonumber\\ \Rightarrow c & = & 13 \end{eqnarray} \]
\ref{eq:re-formulation-var-z}:
\[ \begin{eqnarray} E[\hat{y}^2] & = & cE[w^2]E[z^2]\nonumber\\ 2590 & = & 0.04\times 4583c\nonumber\\ \Rightarrow c &= & 14 \end{eqnarray} \]
另外,看看\(c\)的意义,按照\ref{eq:mean},c应该是元素个数,第一层conv核尺寸为3x3,通道数为3,考虑到稀疏分布,一半应该算正常。

Conclusion

  1. 在这次讨论中,直观上看起来改变不大的分布,其方差却有了巨大改变,这是产生一种冲突的缘由;
  2. 正态分布的假设在实际数值计算中仍然有相当的效用;
  3. 过程中还发现,对变量的认定将影响数值方法的验证感受,比如对由两个满足正态分布的随机序列逐点相乘得到的序列的均值,会发现两者给人的感受有很大差异。

    Postscript

    这个问题持续了一段时间,我最开始只是想对featureMap Viewer的code做些小结,顺便贴些图片,后面偶然发现两种特征图有极为相似的视觉感受,开始讨论了下相关的数学原理,本来以为结束了,回去却突然发现得出结论的逻辑刚好弄反了(第二天赶忙过来撤下),于是陷入某种僵局,最后发现Conclusion第三条中的观点,后面从直接的输入输出进行了验证。
    这是一个与直觉有冲突的现象。看起来迷乱的猜测最后被计算贯彻。但也可以注意到softmax的输出并不是正态分布的(这很容易想象到,其分布应该相近与一个dirac函数)。
    另外,像前面提到的Kaiming He的工作,提供了一些最初的想法。

References

  1. He, Kaiming, et al. "Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification." international conference on computer vision (2015): 1026-1034.

转载于:https://www.cnblogs.com/chenyliang/p/7545529.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值