pytorch 中 torch.nn.Parameter()

一、官方教程:

网址:

torch.nn.parameter — PyTorch 1.11.0 documentation

二、代码解读:

torch.nn.Parameter(torch.Tensor) 是一个类,继承了torch.Tensor这个类,有两个参数:

  • data(Tensor): 给定一个tensor;
  • requires_grad: 指定是否需要梯度,默认为True;

通俗的解释:

首先可以把这个函数理解为类型转换函数,将一个不可训练的类型Tensor转换成可以训练的类型parameter并将这个parameter绑定到这个module里面(net.parameter()中就有这个绑定的parameter,所以在参数优化的时候可以进行优化的),所以经过类型转换就变成了模型的一部分,成为了模型中根据训练可以改动的参数了。使用这个函数的目的也是想让某些变量在学习的过程中不断的修改其值以达到最优化。

三、实际应用:

  • 比如,在GST中,需要定义多个Token当作计算attention的K、V,这里就用到了torch.nn.Parameter(),作为模型的一部分不断地修改优化。
  • 主要是在模型类的 __init__()中,声明一下并标准化。
self.embed = nn.Parameter(torch.FloatTensor(8, 64))
init.normal_(self.embed, mean=0, std=0.5)
        
  • 具体如下: 
class STL(nn.Module):
    '''
    inputs --- [N, E//2]
    '''

    def __init__(self,model_config):

        super().__init__()
        self.embed = nn.Parameter(torch.FloatTensor(model_config["gst"]["n_style_token"], model_config["gst"]["E"] // model_config["gst"]["attn_head"]))
        d_q = model_config["gst"]["E"] // 2
        d_k = model_config["gst"]["E"] // model_config["gst"]["attn_head"]
        self.attention = MultiHeadAttention(query_dim=d_q, key_dim=d_k, num_units=model_config["gst"]["E"], num_heads=model_config["gst"]["attn_head"])

        init.normal_(self.embed, mean=0, std=0.5)

    def forward(self, inputs):
        N = inputs.size(0)
        query = inputs.unsqueeze(1)  # [N, 1, E//2]
        keys = F.tanh(self.embed).unsqueeze(0).expand(N, -1, -1)  # [N, token_num, E // num_heads]
        style_embed = self.attention(query, keys)

        return style_embed
  • 此外,在使用attention时,如果需要自定义并随机初始化一个Q,也是同样的道理。 

部分参考:

torch.nn.Parameter()_chenzy_hust的博客-CSDN博客_nn.parameter()

PyTorch里面的torch.nn.Parameter() - 简书 (jianshu.com)

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PyTorch是一个基于Python的科学计算库,主要针对深度学习任务。在PyTorchtorch.nn是一个用于构建神经网络模型的模块。 torch.nn模块提供了一系列神经网络层和函数,方便用户构建自定义的神经网络。用户可以通过继承torch.nn.Module类来定义自己的神经网络模型。torch.nn模块常用的类包括各种层(例如全连接层、卷积层、池化层和循环层等)、非线性激活函数和损失函数等。 在使用torch.nn模块构建神经网络时,用户需要实现模型的前向传播函数forward()。该函数定义了输入数据在神经网络的流动方式,即通过层和函数的组合计算输出。在forward()函数,用户可以使用已定义的层和函数进行计算,也可以实现自定义的操作。 torch.nn模块的另一个重要概念是参数(parameter)。参数是模型需要学习的变量,例如网络层的权重和偏置项。用户可以通过在模型定义torch.nn.Parameter对象来创建参数,并在forward()函数进行使用。 除了torch.nn模块外,PyTorch还提供了其他的工具和模块来辅助神经网络的训练和优化过程。例如torch.optim模块包含了各种优化算法,如随机梯度下降(SGD)、Adam等,用于更新模型的参数。torch.utils.data模块提供了数据处理和加载的工具,方便用户使用自己的数据训练模型。 总之,torch.nn模块是PyTorch用于构建神经网络模型的重要组成部分。通过使用torch.nn的各种类和函数,用户可以方便地创建自己想要的神经网络结构,并利用PyTorch强大的计算能力和优化算法来训练和优化模型。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值