【深度学习】网络初始化 (initialization)

Introduction

好的开始是成功的一半。
为了让你的模型跑赢在起跑线 ε=ε=ε=( ̄▽ ̄) ,请慎重对待参数初始化。

公式效果
全00导致梯度更新在同层之内完全一样
随机 0.001 ⋅ r a n d n ( i n , o u t ) 0.001 \cdot randn(in, out) 0.001randn(in,out)导致 in、out 方差不一致,收敛较慢
Xavier 0.001 ⋅ r a n d n ( i n , o u t ) i n \frac{0.001 \cdot randn(in, out)}{\sqrt{in}} in 0.001randn(in,out)做了方差规范化,维持了一致性。但未考虑到 relu 对 in 的影响
He 0.001 ⋅ r a n d n ( i n , o u t ) i n 2 \frac{0.001 \cdot randn(in, out)}{\sqrt{\frac{in}{2}}} 2in 0.001randn(in,out)考虑了 relu 的影响,对 relu网络 更友好
导入预训练最佳

Note

  • randn(in, out) :shape = [in, out] 的 随机高斯矩阵

tf 中常用的初始化器

  • tf的初始化器包括:tf.initializers.he_normal()、tf.initializers.truncated_normal()、tf.contrib.layers.xavier_initializer() 这三种。
  • 建议采用默认配置。一般不会在这边想trick,真没啥明显增益。

API

TensorFlow中自带关于参数初始化的API,具体使用见 tensorflow: variable初始化

全零初始化 (Zero Initialization)

将网络中 所有参数 初始化为 0 。

如果所有的参数都是0,那么所有神经元的输出都将是相同的,那在back propagation的时候,gradient相同,weight update也相同。同一层内所有神经元的行为也是相同的。

这显然不可接受。

随机初始化 (Random Initialization)

将参数值(通过高斯分布或均匀分布)随机初始化为 接近0的 一个很小的随机数(有正有负),从而使对称失效。

W = tf.Variable(np.random.randn(node_in, node_out)) * 0.001

Note

  • node_innode_out表示 输入神经元个数输出神经元个数
  • 其中,np.random.randn(node_in, node_out)输出 服从标准正态分布node_in × node_out矩阵;
  • 控制因子:0.001,保证参数期望接近0;
  • 一旦随机分布选择不当,就会导致网络优化陷入困境。

这里写图片描述

Xavier初始化 (Xavier Initialization)

W = ( tf.Variable(np.random.randn(node_in, node_out)) / np.sqrt(node_in) ) * 0.001

这里写图片描述

Note

  • 加上了 方差规范化/ np.sqrt(node_in),维持了 输入、输出数据分布方差一致性,从而更快地收敛。

He初始化 (He Initialization)

W = ( tf.Variable(np.random.randn(node_in, node_out)) / np.sqrt(node_in/2) ) * 0.001

这里写图片描述

Note

  • 考虑到 非线性映射 (relu) 函数 的影响, 将 方差规范化分母 修改为 np.sqrt(node_in/2),能让Relu网络更快地收敛。

迁移学习初始化 (Pre-train Initialization)

预训练模型的参数 作为新任务上的初始化参数。

数据敏感初始化

根据自身任务数据集而特别定制的参数初始化方法。


[1] 聊一聊深度学习的weight initialization
[2] 深度学习之参数初始化策略

  • 4
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值