参数初始化策略——截断的正态分布采样(Pytorch)

前言

深度学习模型的训练是一个困难的任务,很多要素会影响最终的训练结果,其中参数初始化方法就是重要因素之一。pytorch内置了很多初始化方法,除了一般我们会使用的正态分布、均匀分布,Xavier、Kaiming初始化,还包括截断的正态分布对参数初始化。本文主要记录pytorch内置的采样截断的正态分布的使用方法。

截断的正态分布

def trunc_normal_(
    tensor: Tensor, 
    mean: float = 0., 
    std: float = 1., 
    a: float = -2., 
    b: float = 2.):

方法说明

该方法从截断的正态分布中采样并填充到输入张量中。这些值取自正态分布N(mean,std)。超出[a, b]范围的值会进行重新采样,直到取值在范围内。

参数说明

tensor:输入张量。
mean:正态分布均值。
std:正态分布标准差。
a:最小截断值。
b:最大截断值。

示例代码

w = torch.empty(3, 5)
torch.nn.init.trunc_normal_(w)

print(w)
#
tensor([[ 1.0918, -0.6006, -1.7575,  1.0590, -0.2732],
        [ 0.6826, -1.1973,  0.5271,  0.8488, -0.6203],
        [ 0.6100, -1.6671, -1.2157, -0.4831,  0.4103]])

参数初始化的重要性

深度学习模型的训练算法通常是迭代的。因此要求使用者指定一些开始迭代的初始点。
此外,训练深度模型是一个足够困难的问题,以至于大多数算法都很大程度地受到初始化选择的影响。初始点能够决定算法是否收敛。有些初始点十分不稳定,使得该算法会遭遇数值困难,并完全失败。
当学习收敛时,初始点可以决定学习收敛得多快,以及是否收敛到一个代价高或低的点。此外,差不多代价的点可以具有区别极大的泛化误差,初始点也可以影响泛化。
——摘自《深度学习》花书

其他初始化方法

均匀分布初始化

torch.nn.init.uniform_(tensor, a=0.0, b=1.0)

>>> w = torch.empty(3, 5)
>>> nn.init.uniform_(w)

正态分布初始化

torch.nn.init.normal_(tensor, mean=0.0, std=1.0)

>>> w = torch.empty(3, 5)
>>> nn.init.normal_(w)

Xavier初始化


torch.nn.init.xavier_normal_(tensor, gain=1.0)

>>> w = torch.empty(3, 5)
>>> nn.init.xavier_normal_(w)

Kaiming初始化

torch.nn.init.kaiming_uniform_(tensor, a=0, mode='fan_in', nonlinearity='leaky_relu')

>>> w = torch.empty(3, 5)
>>> nn.init.kaiming_uniform_(w, mode='fan_in', nonlinearity='relu')
  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
PyTorch中,He正态分布初始化是一种用于初始化神经网络权重的方法。它是由何凯明在2015年提出的,针对ReLU激活函数的特性进行了改进。相比于Xavier初始化在ReLU中的表现较差,He初始化能够更好地适应ReLU的非线性特性。\[2\] 在PyTorch中,可以使用torch.nn.init.kaiming_normal_函数来进行He正态分布初始化。该函数的参数包括要初始化的张量和非线性激活函数的类型。具体而言,对于ReLU激活函数,可以使用nonlinearity='relu'来指定。例如,可以使用以下代码进行He正态分布初始化: ```python import torch import torch.nn as nn # 定义一个卷积层 conv = nn.Conv2d(in_channels, out_channels, kernel_size) # 使用He正态分布初始化 nn.init.kaiming_normal_(conv.weight, nonlinearity='relu') ``` 这样,卷积层的权重将会按照He正态分布进行初始化,以更好地适应ReLU激活函数的特性。\[2\] #### 引用[.reference_title] - *1* *3* [PyTorch中的Xavier以及He权重初始化方法解释](https://blog.csdn.net/weixin_39653948/article/details/107950764)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [Pytorch神经网络初始化kaiming分布](https://blog.csdn.net/weixin_36670529/article/details/104031247)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值