从几何视角来理解模型参数的初始化策略


对于复杂模型来说,参数的初始化显得尤为重要。糟糕的初始化,很多时候已经不单是模型效果变差的问题了,还更有可能是模型根本训练不动或者不收敛。在深度学习中常见的自适应初始化策略是 Xavier初始化,它是从正态分布 N ( 0 , 2 f a n i n + f a n o u t ) \mathcal{N}(0,\frac{2}{fan_{in}+fan_{out}}) N(0,fanin+fanout2) 中随机采样而构成的初始权重,其中 f a n i n fan_{in} fanin是输入的维度而 f a n o u t fan_{out} fanout是输出的维度。其他初始化策略基本上也类似,只不过假设有所不同,导致最终形式略有差别。
标准的初始化策略的推导是基于概率统计的,大概的思路是 假设输入数据的均值为 0 0 0、方差为 1 1 1,然后期望输出数据也保持均值为 0 0 0、方差为 1 1 1,然后推导出初始变换应该满足的均值和方差条件。这个过程理论上没啥问题,但在笔者看来依然不够直观,而且推导过程的假设有点多。本文则希望能从几何视角来理解模型的初始化方法,给出一个更直观的推导过程。

信手拈来的正交

前者时间笔者写了《n维空间下两个随机向量的夹角分布》,其中的一个推论是

推论1:高维空间中的任意两个随机向量几乎都是垂直的

事实上,推论1正是本文整个几何视角的出发点!它的一个更进一步的推论是:

推论2:从 N ( 0 , 1 n ) \mathcal{N}(0,\frac{1}{n}) N(0,n1)中随机选取 n 2 n^2 n2个数,组成一个 n × n n×n n×n的矩阵,这个矩阵近似为正交矩阵,且 n n n越大,近似程度越好。

不信的读者也可以数值验证一下:

import numpy as np

n = 100
W = np.random.randn(n, n) / np.sqrt(n)
X = np.dot(W.T, W)  # 矩阵乘以自身的转置
print(X)  # 看看是否接近单位阵
print(np.square(X - np.eye(n)).mean())  # 计算与单位阵的mse

相信对于多数读者来说,第一次看到这个推论 2 2 2或多或少都会觉得惊讶。正交矩阵是指满足 W T W = I \boldsymbol{W^TW=I} WTW=I的矩阵,也就是说它的逆等于转置。一般矩阵的逆和转置的求解难度差得不是一点点,所以给我们的感觉是“逆=转置”是一个很苛刻的条件才对,但推论 2 2 2却告诉我们随机采样而来的矩阵就已经接近正交矩阵了,不得不说有点反直觉。当初笔者刚意识到这一点时,也是感觉挺惊讶的。

其实也没那么难理解

不过,当我们习惯了推论 1 1 1“高维空间中的任意两个随机向量几乎都是垂直的”这个事实后,我们确实可以很快地理解并导出这个结果。快速推导的时候,我们可以先考虑标准正态分布 N ( 0 , 1 ) \mathcal{N}(0,1) N(0,1),注意到推论 1 1 1要求采样的方向均匀,而标准正态分布正好满足这个要求。从 N ( 0 , 1 ) \mathcal{N}(0,1) N(0,1)中采样到一个 n × n n\times n n×n的矩阵,我们可以把它看成是 n n n n n n维向量,那既然这 n n n个向量都是随机向量,所以它们两两之间自然就接近正交了。

当然,两两正交还不是正交矩阵,因为正交矩阵还要求每个向量的模长为 1 1 1,而我们有 E x ∼ N ( 0 , 1 ) [ x 2 ] = 1 \mathbb{E}_{x\sim \mathcal{N}(0,1)}\left[x^2\right]=1 ExN(0,1)[x2]=1,所以这意味着从 N ( 0 , 1 ) \mathcal{N}(0,1) N(0,1)中采样出的n维向量模长近似为 n \sqrt{n} n ,所以为了接近正交,还需要将每个元素除以 n \sqrt{n} n ,这等价于采样方差由 1 1 1变成了 1 / n 1/n 1/n

此外,采样分布还不一定要是正态分布,比如均匀分布 U [ − 3 / n , 3 / n ] U[−\sqrt{3/n},\sqrt{3/n}] U[3/n ,3/n ] E x ∼ U [ x 2 ] = ( a − b ) 2 12 \mathbb{E}_{x\sim U}\left[x^2\right]=\frac{(a-b)^2}{12} ExU[x2]=12(ab)2)也行。事实上我们有

推论3: 从任意的均值为 0 0 0、方差为 1 / n 1/n 1/n的分布 p ( x ) p(x) p(x)中独立重复采样出来的n×n矩阵,都接近正交矩阵。

我们可以从一个更数学化的角度来理解推论3:假设 x = ( x 1 , x 2 , … , x n ) , y = ( y 1 , y 2 , … , y n ) x=(x_1,x_2,\dots,x_n),y=(y_1,y_2,\dots,y_n) x=(x1,x2,,xn),y=(y1,y2,,yn)都是从 p ( x ) p(x) p(x)中采样出来的,那么有
⟨ x , y ⟩ = n × 1 n ∑ i = 1 n x i y i ≈ n × E x ∼ p ( x ) , y ∼ p ( x ) [ x y ] = n × E x ∼ p ( x ) [ x ] × E y ∼ p ( x ) [ y ] = 0 \begin{aligned} \langle x,y\rangle&=n\times \frac{1}{n}\sum_{i=1}^{n}x_iy_i\\ &\approx n\times\mathbb{E}_{x\sim p(x),y\sim p(x)}\left[xy\right]\\ &=n\times\mathbb{E}_{x\sim p(x)}[x]\times\mathbb{E}_{y\sim p(x)}[y]\\ &=0 \end{aligned} x,y=n×n1i=1nxiyin×Exp(x),yp(x)[xy]=n×Exp(x)[x]×Eyp(x)[y]=0
以及
∥ x ∥ 2 = n × 1 n ∑ i = 0 n x i 2 = n × E x ∼ p ( x ) [ x 2 ] = n × ( μ 2 + σ 2 ) = 1 \begin{aligned} \lVert x\rVert^2 &= n\times\frac{1}{n}\sum_{i=0}^nx_i^2\\ &= n\times \mathbb{E}_{x\sim p(x)}\left[x^2\right]\\ &=n \times (\mu^2+\sigma^2)\\ &=1 \end{aligned} x2=n×n1i=0nxi2=n×Exp(x)[x2]=n×(μ2+σ2)=1
所以任意两个向量都是接近正交归一的,因此采样出来的矩阵也接近正交矩阵。

现在可以说初始化了

说了那么多正交矩阵的内容,其实本质上都是为理解初始化方法的几何意义做铺垫。如果读者对线性代数还有印象的话,那么应该还记得正交矩阵的重要意义在于它在变换过程中保持了向量的模长不变。用数学公式来表达,就是设 W ∈ R n × n \boldsymbol{W}\in \mathbb{R}^{n\times n} WRn×n是一个正交矩阵,而 x ∈ R n \boldsymbol{x}\in \mathbb{R}^n xRn是任意向量,则 x \boldsymbol{x} x的模长等于 W x \boldsymbol{Wx} Wx的模长:
∥ W x ∥ 2 = x T W W T x = x T I x = ∥ x ∥ 2 \boldsymbol{\lVert Wx\rVert^2=x^TWW^Tx=x^TIx=\lVert x\rVert^2} Wx2=xTWWTx=xTIx=x2
考虑全连接层:
y = W x + b \boldsymbol{y=Wx+b} y=Wx+b
深度学习模型本身上就是一个个全连接层的嵌套,所以为了使模型最后的输出不至于在初始化阶段就过于“膨胀”或者“退化”,一个想法就是让模型在初始化时能保持模长不变。

这个想法形成的一个自然的初始化策略就是“以全零初始化b,以随机正交矩阵初始化 W \boldsymbol{W} W”。而推论2就已经告诉我们,从 N ( 0 , 1 ) \mathcal{N}(0,1) N(0,1)采样而来的 n × n n\times n n×n矩阵就已经接近正交矩阵了,所以我们可以从 N ( 0 , 1 ) \mathcal{N}(0,1) N(0,1)采样来初始化 W \boldsymbol{W} W。这便是Xavier初始化策略了,有些框架也叫Glorot初始化,因为作者叫Xavier Glorot~此外,采样分布也不一定是 W \boldsymbol{W} W,前面推论3说了你可以从任意均值为 0 0 0、方差为 1 / n 1/n 1/n的分布中采样。

上面说的是输入和输出维度都是 n n n的情况,如果输入是 n n n维,输出是 m m m维呢?这时候 W ∈ R n × m \boldsymbol{W}\in \mathbb{R}^{n\times m} WRn×m,保持 W x \boldsymbol{Wx} Wx模长不变的条件依然是 W T W = I \boldsymbol{W^TW=I} WTW=I。然而,当 m < n m\lt n m<n时,这是不可能的;当 m ≥ n m\geq n mn时,这是有可能成立的,并且根据前面相似的推导,我们可以得到

推论4: 当 m ≥ n m\geq n mn时,从任意的均值为 0 0 0、方差为 1 / m 1/m 1/m的分布 p ( x ) p(x) p(x)中独立重复采样出来的 m × n m\times n m×n矩阵,近似满足 W T W = I \boldsymbol{W^TW=I} WTW=I

所以,如果 m > n m>n m>n,那么只需要把采样分布的方差改为 1 / m 1/m 1/m就好,至于 m < n m<n m<n时,虽然没有直接的推导,但仍然可以沿用这个做法,毕竟合理的策略应该是普适的。注意,这个改动跟Xavier初始化的原始设计有点不一样,Xavier初始化的做法是方差改为 2 / ( m + n ) 2/(m+n) 2/(m+n),这只是个拍脑袋的直觉做法,并没有特别的依据。

可能还会有读者疑问:你这里只是考虑了没有激活函数的场景,就算 y y y的模长跟 x x x一样,但 y y y经过激活函数后就不一样了。确实是存在这样的情况,而且这时候只能针对具体问题具体分析。比如 tanh ⁡ ( x ) \tanh(x) tanh(x) x x x比较小的时候有 tanh ⁡ ( x ) ≈ x \tanh(x)\approx x tanh(x)x,所以可以认为Xavier初始化直接适用于 tanh ⁡ \tanh tanh激活;再比如relu时可以认为relu(y)会有大约一半的元素被置零,所以模长大约变为原来的 2 \sqrt{2} 2 ,而要保持模长不变,可以让 W \boldsymbol{W} W乘上 1 / 2 1/{\sqrt{2}} 1/2 ,也就是说初始化方差从 1 / m 1/m 1/m变成 2 / m 2/m 2/m,这就是何凯明大神提出来的针对relu的初始化策略。

当然,事实上很难针对每一个激活函数都做好方差的调整,所以一个更通用的做法就是直接在激活函数后面加上一个类似Layer Normalization的操作,直接显式地恢复模长。这时候就轮到各种Normalization技巧登场了~(欢迎继续阅读旧作《BN究竟起了什么作用?一个闭门造车的分析》。)

还有一点小结

本文主要是从“高维空间中的任意两个随机向量几乎都是垂直的”这个结论推导出“均值为 0 0 0、方差为 1 / n 1/n 1/n的任意 n × n n \times n n×n 矩阵接近于正交矩阵”,继而给出了相关初始化策略的一个几何视角。窃以为这个几何视角相比纯统计视角要更直观易懂一些。

转载

本文转载自苏神的 从几何视角来理解模型参数的初始化策略

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值