PyTorch官方中文文档:torch.nn.init

本文介绍了PyTorch中的torch.nn.init模块,详细讲解了如何使用各种分布初始化张量,包括均匀分布、正态分布、单位矩阵、Dirac delta函数、Glorot初始化和He初始化等方法,适用于不同的神经网络层。
摘要由CSDN通过智能技术生成
  • A+
所属分类: PyTorch

torch.nn.init

torch.nn.init.calculate_gain(nonlinearity,param=None)

对于给定的非线性函数,返回推荐的增益值。这些值如下所示:

nonlinearity gain
linear 1
conv{1,2,3}d 1
sigmoid 1
tanh 5/3
relu sqrt(2)
leaky_relu sqrt(2/(1+negative_slope^2))
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值