pytorch系列 -- 9 pytorch nn.init 中实现的初始化函数 uniform, normal, const, Xavier, He initialization

本文介绍了PyTorch中的权重初始化方法,包括均匀分布、正太分布、常数初始化,详细讲解了Xavier和He初始化的原理及应用场景,特别是针对ReLU激活函数的He初始化在深度学习中的重要性。
摘要由CSDN通过智能技术生成

本文内容:
1. Xavier 初始化
2. nn.init 中各种初始化函数
3. He 初始化

torch.init https://pytorch.org/docs/stable/nn.html#torch-nn-init

1. 均匀分布

torch.nn.init.uniform_(tensor, a=0, b=1)
服从~ U ( a , b ) U(a, b) U(a,b)

2. 正太分布

torch.nn.init.normal_(tensor, mean=0, std=1)
服从~ N ( m e a n , s t d ) N(mean, std) N(mean,std)

3. 初始化为常数

torch.nn.init.constant_(tensor, val)
初始化整个矩阵为常数val

4. Xavier

基本思想是通过网络层时,输入和输出的方差相同,包括前向传播和后向传播。具体看以下博文:

  1. 为什么需要Xavier 初始化?
    文章第一段通过sigmoid激活函数讲述了为何初始化?
    在这里插入图片描述
    简答的说就是:
  • 如果初始化值很小,那么随着层数的传递,方差就会趋于0,此时输入值 也变得越来越小,在sigmoid上就是在0附近,接近于线性,失去了非线性
  • 如果初始值很大,那么随着层数的传递,方差会迅速增加,此时输入值变得很大,而sigmoid在大输入值写倒数趋近于0,反向传播时会遇到梯度消失的问题

其他的激活函数同样存在相同的问题。
https://prateekvjoshi.com/2016/03/29/understanding-xavier-initialization-in-deep-neural-networks/

所以论文提出,在每一层网络保证输入和输出的方差相同。
2. xavier初始化的简单推导
https://blog.csdn.net/u011534057/article/details/51673458

对于Xavier初始化方式,pytorch提供了uniform和normal两种:

  • torch.nn.init.xavier_uniform_(tensor, gain=1) 均匀分布 ~ U ( − a , a ) U(-a,a ) U(a,a)
    其中, a的计算公式: a = g a i n × 6 f a n _ i n + f a n _
  • 126
    点赞
  • 562
    收藏
    觉得还不错? 一键收藏
  • 15
    评论
评论 15
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值