一分钟搞定丐版Transformer【基于transormer的多输出回归预测】


前言

  在深度学习领域,Transformer模型以其独特的机制和优越的性能在自然语言处理(NLP)任务中占据了主导地位。这里我们提供了一个简化版的Transformer模型的实现,让你在一分钟内快速理解并上手Transformer的基本原理和代码实现。
在这里插入图片描述

  核心代码如下,用于多输出的回归预测项目代码详解请见小破站视频链接:【一分钟搞定丐版Transformer【多输出回归预测】】 https://www.bilibili.com/video/BV1bE421K78G/?share_source=copy_web&vd_source=a9100554431c2d1cd88da0ebf23e97fc

class TransformerModel(nn.Module):
    def __init__(self, input_dim, output_dim, nhead, num_layers):
        super(TransformerModel, self).__init__()
        self.model_type = 'Transformer'
        self.src_mask = None
        self.pos_encoder = PositionalEncoding(input_dim)
        encoder_layers = nn.TransformerEncoderLayer(input_dim, nhead, dim_feedforward=512)
        self.transformer_encoder = nn.TransformerEncoder(encoder_layers, num_layers)
        self.encoder = nn.Linear(input_dim, input_dim)
        self.decoder = nn.Linear(input_dim, output_dim)

    def forward(self, src):
        print(f"Initial shape: {src.shape}")
        if self.src_mask is None or self.src_mask.size(0) != len(src):
            device = src.device
            mask = self._generate_square_subsequent_mask(len(src)).to(device)
            self.src_mask = mask

        src = self.encoder(src)
        print(f"After encoder: {src.shape}")
        src = self.pos_encoder(src)
        print(f"After positional encoding: {src.shape}")
        output = self.transformer_encoder(src, self.src_mask)
        print(f"After transformer encoder: {output.shape}")
        output = self.decoder(output)
        print(f"Final output shape: {output.shape}")
        # 如果你只关心每个序列的最后一个时间步的输出:
        final_output = output[:, -1, :]  # 这会给你一个形状为 [574, 3] 的张量
        print(f"Final final_output shape: {final_output.shape}")
        return final_output

    def _generate_square_subsequent_mask(self, sz):
        mask = (torch.triu(torch.ones(sz, sz)) == 1).transpose(0, 1)
        mask = mask.float().masked_fill(mask == 0, float('-inf')).masked_fill(mask == 1, float(0.0))
        return mask

class PositionalEncoding(nn.Module):

    def __init__(self, d_model, dropout=0.1, max_len=5000):
        super(PositionalEncoding, self).__init__()
        self.dropout = nn.Dropout(p=dropout)

        pe = torch.zeros(max_len, d_model)
        position = torch.arange(0, max_len, dtype=torch.float).unsqueeze(1)
        div_term = torch.exp(torch.arange(0, d_model, 2).float() * (-math.log(10000.0) / d_model))
        pe[:, 0::2] = torch.sin(position * div_term)
        pe[:, 1::2] = torch.cos(position * div_term)
        pe = pe.unsqueeze(0).transpose(0, 1)
        self.register_buffer('pe', pe)

    def forward(self, x):
        x = x + self.pe[:x.size(0), :]
        return self.dropout(x)

Transformer模型结构概览

  Transformer模型基于自注意力机制,它摒弃了传统的循环神经网络架构,完全依靠自注意力机制来编码输入序列的信息。

代码模块解释

  1. TransformerModel:这是整个Transformer模型的骨架,定义了模型结构的各个核心部分。

  2. __init__ 函数:初始化函数,定义了模型使用到的各种层和参数:

    • input_dimoutput_dim 分别代表输入和输出的特征维度。
    • nhead 是多头注意力机制中“头”的数量。
    • num_layers 是Transformer编码器层的堆叠数量。
    • PositionalEncoding 是位置编码类,用来给输入序列添加位置信息。
    • nn.TransformerEncoder 是Transformer编码器,由多个nn.TransformerEncoderLayer组成。
    • self.encoderself.decoder 是线性层,分别用于输入的线性转换和输出的线性转换。
  3. forward 函数:定义了模型的前向传播逻辑。

    • 首先检查源序列掩码src_mask是否已经定义,若未定义或大小不匹配则创建它。
    • 通过线性层、位置编码和Transformer编码器对输入数据src进行处理。
    • 最后通过解码器输出最终的结果。
    • 如果只关心序列的最后一个输出,则只取最后一个时间步的输出。
  4. _generate_square_subsequent_mask 函数:生成一个上三角形状的掩码,用于在自注意力计算中屏蔽未来的位置信息,保证模型只能看到当前位置及之前的信息。

  5. PositionalEncoding:实现位置编码。

    • 在Transformer中,位置编码是用来保留序列中单词的顺序信息。
    • 使用正弦和余弦函数的组合生成位置编码。

模块功能详解

  1. 位置编码(PositionalEncoding)

    • 位置编码使用正弦和余弦函数,为序列中的每个元素赋予了一个相对或绝对位置,以此来模拟序列数据的顺序特性,是Transformer模型中的一个关键创新点。
  2. 编码器(Encoder)

    • 输入的线性层将输入数据转换到适当的维度。
    • Transformer编码器由若干编码器层堆叠而成,每层包含多头注意力机制和前馈神经网络。
  3. 掩码生成(_generate_square_subsequent_mask)

    • 掩码技术是Transformer模型实现序列到序列任务时的一个重要技巧,它可以防止模型在解码时获取未来位置的信息。
  4. 解码器(Decoder)

    • 输出的线性层将Transformer编码器的输出转换为最终的输出维度。

总结

  通过上述代码的精简实现,我们可以看出即使是一个简化版的Transformer模型,也能够涵盖核心的机器学习原则和处理序列数据的强大功能。对于希望深入理解Transformer工作原理和实现的人来说,这个简化版的代码提供了一个极佳的起点。

  • 51
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值