初始化网络参数

为什么要给网络参数赋初值

既然网络参数通过训练得到,那么其初值是否重要?设置初值不佳是否只影响收敛速度而不影响模型结果?网络参数是否可以设置为全0或者全1?

假设网络的参数W初值都是0,如下图所示,无论输入任何X,第一层的输出A将都为0,再向前传递到y也是0,使用误差函数调参时,每一层的梯度只与该层的输入和输出有关,由于a1,a2值相等,计算出的梯度调整的值,以及调整后的梯度也相等;第二次迭代也同理,由于a1,a2相等,w[2]中各单元的值也相等。因此该层有100个单元与1个单元没有差异,该问题被称为“对称性”问题。

试想将w设置成全1,则有a1=x1+x2,a2=x1+x2,a1与a2值仍然相同,对称性问题依然存在。由此,一般将参数设置为随机值。

设置成随机值还不够,还需要设置成较小的随机值,试想如果w的均值在0.5附近,某一层的输入输出都为500个元素,那么经过该层乘和加的运算,输出约是输入值的250倍;如果存在多层,250x250x…,很快就爆炸了。如果在层后使用Sigmoid函数,将值映射到较小的空间,又会发生非线性激活函数的饱和问题,使收敛变慢。

因此,简单的方法是:

W = np.random.randn(o_dim, i_dim) * 0.01   
np.zeros((o_dim, 1))

bias不导致对称性,一般设置为0。

常用的初值化方法

全0或全1的初始化方法不能使用,而随机初始化也存在一些问题,由于各层的输入和输出元素个数不同,这使得每一层输出数据的方差也不同,比如层输入500个元素和5个元素,同等大小的w,输出的大小可能差出百倍。不同层的调参将受到影响。

Xavier初始化

假设层的输入有三个元素x1,x2,x3,输入为y,权重分别是w1,w2,w3,

则y值为:

y=w1x1+w2x2+w3x3,在计算参数w的初值时考虑到输入该层元素的个数n:于是出现了Xavier方法。

Kaiming初始化

Xavier的问题是,它没有考虑到激活函数对输出数据分布的影响,它会带偏当前广泛使用的ReLU激活函数的结果,于是He Kaiming提取了针对ReLU激活函数的Kaiming初始化(有时也叫作He初始化)。

其原理是:由于ReLU过滤掉了0以下的输入值,因此,激活函数输出的均值将大于0,为解决这和问题,Kaiming方法修改了生成随机数时的标准差。

ReLU过滤掉了一半数据,因此分子乘2,分母是上一层的输出元素个数,即本层的输入元素个数。推导过程请见论文:《Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification》的Section 2.2。

尽管Kaiming初始化一开始主要针对ReLU激活函数优化,但是目前主流库中的Kaiming函数已经支持sigmoid等多种激活函数,可放心调用。

归一化层

Kaiming的目标也是保证各个层输入和输出数据的方差不变。由于后来归一化层被广泛使用,有效地缓解了均值和方差稳定的问题。因此,在使用归一化层的情况下,使用随机数始初化参数即可。

另外,在有些情况下无法使用归一化层,比如最常用的BN(Batch Normalization)在Batch中数据较少时效果不好,这种情况下就需要选用参数初始化。

在预训练/调优的场景中,一般使用预训练的参数作为模型的初值。

Python参数初始化

在使用Pytorch构建网络时,torch.nn中提供了各种常用初始化方法,直接调用即可。下面列出用于初始化网络的某一层或某几层的常用代码。

def init_network_params(model, method='xavier', keywords, seed=123, debug=False):  
    for name, w in model.named_parameters():  
        init = False  
        for key in keywords:  
            if key in name:  
                init = True  
        if init:  
            if debug:  
                print('init layer params', name)  
            if 'weight' in name:  
                if method == 'xavier':  
                    nn.init.xavier_normal_(w)  
                elif method == 'kaiming':  
                    nn.init.kaiming_normal_(w)  
                else:  
                    nn.init.normal_(w)  
            elif 'bias' in name:  
                nn.init.constant_(w, 0)  
            else:  
                pass

Pytorch中如果不额外设置,线性层的初值设为:(详见torch.nn.modules.linear):

kaiming_uniform_(self.weight, a=math.sqrt(5))
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值