Transformer的Pytorch实现

引言   

    Transformer中文名注意力机制,最开始应用于自然语言处理的机器翻译任务中,后来被发现此模型也可以应用于其他领域中如视觉领域,且效果也非常不错,目前广泛应用于GPT领域,是主流的深度学习模型结构之一。

    本文使用简单地实现了Transformer,使用的是Pytorch版本为1.11.0,在代码中有详细的注释更能方便理解代码,本文只给出了部分代码,所有代码可以在Github中下载

总体结构 

    我们由简入繁,由浅入深地对注意力机制模型进行分析,首先我们看一下他的大概框架。

6876507402f445b7a1fd96527ed4f036.png

    以上为Transformer的结构图,其可以划分为两个部分,编码段(Encoder)(左端) 和解码端(Decoder)(右端),编码端和解码端各有一个输入,编码端的输出会和解码端的中间部分会有一个交互,中间部分我们先不管之后再介绍,最后解码端会有一个输出,这个输出会和数据集中的标签计算损失。

    那么编码端,解码端的输入以及标签又是什么呢?本文以机器翻译任务为例(中译英),在机器翻译任务的数据集中会有原文以及译文,编码端的输入就是原文,其格式为 [ "原" , "文" , "P" ],解码端的输入就是译文其格式为 [ "S" , "origin" , "text" ],那标签(target)又是什么呢???其实它也是译文,但是其格式与前者有些区别,格式如下 [ "origin" , "test" , "E" ],当然我们不能直接将单词输入到神经网络,需要先将他们编码成数字矩阵再输入。   

    那么我们是如何将中英文编码成数字的呢?这里需要建立字库,需要遍历所有的样本将其出现的中文一对一映射到唯一的一个数字,英文也一样。Python中的字典是一个很好的实现方法。注意:需要两个字库,中文英文各一个,以及上面提到的P,S,E也需要放入字库中将其映射为一个数字(P放入中英字库,S和E放入英文字库)。实现方式如下:

# # 为了方便理解,这里手动定义训练集1
sentences = [
    ["你 今 晚 回 家 吃 饭 吗 P", "S Are you going home for dinner tonight", "Are you going home for dinner tonight E"],
    ["我 今 晚 回 家 吃 饭 P", "S I'm going home for dinner tonight", "I'm going home for dinner tonight E"],
    ["我 今 晚 不 回 家 吃 饭 P", "S I'm not going home for dinner tonight", "I'm not going home for dinner tonight E"]
] 

# 建立中英词库
CN_glossary = {'P':0,'你':1,'今':2,'饭':3,'家':4,'回':5,'吃':6,'晚':7,'吗':8,'我':9,'不':10}
EN_glossary = {'P':0,'S':1,'E':2,"I'm":3,'Are':4,'going':5,'you':6,'home':7,
                   'dinner':8,'for':9,'tonight':10, 'not':11}

那么“P”,“S”,“E”又代表什么呢??

    先从P开始,P代表PAD填充,因为我们需要将原文和译文以矩阵的形式输入网络,而每个样本的原文和译文长度都有可能不同,若每一行代表一个样本那么可能会发生这样一种情况:若设置的batch_size为2且第一行有5个数字而第二行有7个数字,这样无法使他们构成一个矩阵,这时我们就需要使用PAD对第一个句子进行填充,使输入变为一个2*7的矩阵。所有的句子或者是同一个Batch的句子长度相同,这样他们才能构成一个矩阵输入到网络。

  接下来是解码端输入部分的S,S其实就是Start的缩写代表译文的开始部分。这里先剧透一下,在翻译时我们需要根据原文和前面已经翻译的内容一步一步生成后面的部分,而最开始我们只有原文啊,没有译文啊,难道解码端就不用输入了吗,那肯定不行,所以就都从S符号代表的数字开始输入,根据原文一个字一个字地生成译文,生成的译文的一个数字代号会添加到S的后面作为新的输入,再输入到解码端,一直循环,直到模型输出E代表的数字为止,否则会一直生成。那么也很好猜了,E就代表结束,是End的缩写。

    了解了P,S,E之后就可以将数据集编码成Transformer所需要的输入形式了,同样以上面的三句话为例,假设batch_size为3,可以看到这三句中文中最长的那句话长度为9(包括P),那么就需要对短一点的句子往后填P,则最终输入到网络编码端的Tensor的shape为[3, 9],同样的输入到解码端的Tensor的shape为[3, 8],target也是[3, 8]。

Transformer总体框架代码如下:

class Transformer(nn.Module):
    def __init__(self, device, len_CNvocabulary, len_ENvocabulary, d_model, dff, n_head):
        super(Transformer, self).__init__()
        self.len_vocabulary = len_ENvocabulary  # 字库大小
        self.device = device
        self.encoder = Encoder(device, len_CNvocabulary, d_model, dff, n_head) # 编码端
        self.decoder = Decoder(device, len_ENvocabulary, d_model, dff, n_head) # 解码端
        self.Projection = nn.Linear(d_model, len_ENvocabulary)  # 对网络输出进行映射
    
    def forward(self, encoder_input, decoder_input):
        """
        encoder_input.shape -> [batch_size, len_sen1]
        decoder_input.shape -> [batch_size, len_sen2]
        final_output.shape -> [batch_size*len_sen2, len_vocabulary]
        """
        output1 = self.encoder(encoder_input)
        output2 = self.decoder(decoder_input, encoder_input, output1, output1)
        final_output = self.Projection(output2).view(-1, self.len_vocabulary)
        return final_output

编码端

知道了输入后,就开始分析编码端了(上图左侧),大致流程为:

1、进行word Embedding 后加入位置编码

2、进行不带序列mask(含有PADmask)的多头自注意力机制后再进行归一化和残差连接

3、输入前馈神经网络后再归一化和残差连接

4、二,三步重复N次,在论文中为6次

    第一步

    word Embedding就是使用一个向量来表示一个单词或token,根据论文,向量维度为512维,我们使用  torch.nn.Embedding(len_vocabulary, d_model)  来实现此功能,其中len_vocabulary为词库的大小,以上面的句子为例,在编码端就是中文词库的长度=11,d_model就是512,经过词编码层后数据的维度变为[3, 9, 512]。

d1172166271a4369af8fdba8aca59b47.png

    然后就是位置编码,其公式如上图所示。pos代表这是数据集的第几个字,i代表这是512维中的第几个维度,我们可以作一下小小的数学变换,变成如下形式

b30fc366b7e34a07b352420adac153d8.png

   加入位置编码后数据shape不变为[3, 9, 512],部分代码如下所示

class PositionalEncoding(nn.Module):
    def __init__(self, d_modle=512, max_len=5000):
        super(PositionalEncoding, self).__init__()
        self.dropout = nn.Dropout(0.1)
        PE = torch.zeros(max_len, d_modle)
        pos = torch.arange(0, max_len, dtype=torch.float).unsqueeze(1)
        div_term = torch.exp(torch.arange(0, d_modle, 2).float() / d_modle * (-math.log(10000.0))).unsqueeze(0)
        PE[:, 0::2] = torch.sin(pos * div_term)
        PE[:, 1::2] = torch.cos(pos * div_term)
        PE = PE.unsqueeze(0)
        self.register_buffer("PE", PE) # 相当于结构的常量,不参与梯度运算

    def forward(self, x):
        x = x + self.PE[:, :x.size(1), :]
        return self.dropout(x)

第二步

0f6433927bb143c88e229619a324cd32.png

    现在得到了第一步的输出,因为是自注意力机制,所以这里将输出的Tensor数据复制为三份作为第二步的输入,我们这三份一样的数据称为K,Q,V,输入到多头注意力机制中(上图右),注意力机制就是找出原始文本中对输入向量影响最大的部分,其中Q代表查询序列Query,即:我与你们的相似度是多少?,K代表键Key,即待查序列,与query要比较的值,V代表值Value,即待查序列的自身含义编码序列。

多头注意力机制的计算步骤如下:

1、KQV各自经过一个线性层后被切分为了许多份子Tensor

2、对每个子Tensor输入到Dot-Product Attention层(上图左)

3、将输出的多个子Tensor合并为一个Tensor后再经过一个线性映射得到输出

多头注意力机制代码如下:

class MultiHeadAttention(nn.Module):
    def __init__(self, d_model=512, d_q=64, d_v=64, n_head=8):
        super(MultiHeadAttention, self).__init__()
        self.n_head, self.d_q, self.d_v = n_head, d_q, d_v
        self.W_Q = nn.Linear(d_model, n_head*d_q)
        self.W_k = nn.Linear(d_model, n_head*d_q)
        self.W_V = nn.Linear(d_model, n_head*d_v)
        self.DotProduct = ScaledDotProductAttention()
    def forward(self, Q, K, V, mask):
        """
        Q.shape -> [batch_size, len_sen, d_model]
        Q,K 维度要保持一致
        output.shape -> [batch_size, len_sen1, n_head, d_v]
        """
        batch_size, len_sen = Q.shape[0], Q.shape[1]
        Q = self.W_Q(Q).view(batch_size, -1, self.n_head, self.d_q)  # 这里是先切分了8个子Tensor后输入到线性层
        K = self.W_k(K).view(batch_size, -1, self.n_head, self.d_q)
        V = self.W_V(V).view(batch_size, -1, self.n_head, self.d_v) # [batch_size, len_sen, n_head, d_v]
        output = self.DotProduct(Q, K, V, mask) # shape -> [batch_size, len_sen1, n_head, d_v]
        return output.reshape(batch_size, len_sen, -1)   # reshape将多个子Tensor合并为了最后的输出

    接下来我们细说以下多头注意力机制中的Scaled Dot-Product Attention层,大致计算方法如下所示

2fb3c186d0bc4a528ff5f1734d75f334.png

    其中QK乘积是为了计算相似度,之后与V进行乘积则代表加权求和,若相似度较高则与V的权重和也较高。

    上公式并没有提及MASK,这里讲解一下,在编码端中的Mask只包括Pad mask,上面提到过,在数据输入到网络之前为了保证其维度一致及可以组成一个矩阵,我们会在句子的末尾加上PAD,由于PAD本身并无意义,所以我们需要建立一个mask矩阵来消除PAD对注意力计算的影响,方法就是让PAD部分的QK乘积变为无穷小即相似度很低,在经过Softmax后其值就会变为0。那么所谓的MASK矩阵就是一个bool矩阵,其为True的部分会在后续计算时发挥作用,根据上图是在Q,K乘积之后做的MASK所以其矩阵的长宽应该与QK乘积以后的长宽一致。

    部分代码如下所示:

class ScaledDotProductAttention(nn.Module):
    def __init__(self):
        super(ScaledDotProductAttention, self).__init__()
        self.softmax = torch.nn.Softmax(dim=-2)

    def forward(self, Q, K, V, mask):
        """
        Q.shape -> [batch_size, len_sen, n_head, d_q]
        mask.shape -> [batch_size, len_sen, len_sen, n_head]
        output.shape -> [batch_size, len_sen1, n_head, d_v]
        """
        scale = torch.einsum('abcd,aecd->abec', Q, K) # shape -> [batch_size, len_sen1, len_sen2, n_head]
        scale.masked_fill_(mask, 1e-9)  # 进行mask
        Q_K = self.softmax(scale)
        output = torch.einsum('abcd,acde->abde', Q_K, V) 
        return output  

PAD MASK定义的代码如下:

# 定义 PAD mask
def makePadMask(input1, input2):
    """
    input1.shape -> [batch_size, len_sen1]
    input2.shape -> [batch_size, len_sen2]
    padmask.shape -> [batch_size, len_sen1, len_sen2]
    默认0代表PAD
    """
    len_sen1 = input1.shape[1]
    padmask = input2.eq(0).unsqueeze(1)  # input2确定mask位置
    padmask = padmask.repeat(1, len_sen1, 1)  # input1确定维度大小,以对其输入
    return padmask

第三步

  将多头注意力机制的输出,输入到前馈神经网络后再进行归一化和残差连接。最终的输出将复制两份作为新的K,V,传入到解码端中层。下面是编码层部分代码。

class Encoder(nn.Module):
    def __init__(self, device, len_vocabulary, d_model=512, dff=2048, n_head=8, n_layer=6):
        super(Encoder, self).__init__()
        self.MultiHeadAttention = MultiHeadAttention()  # 多头注意力
        self.posembedding = PositionalEncoding()  # 位置编码
        self.input_Embedding = torch.nn.Embedding(len_vocabulary, d_model)  # 词嵌入
        self.d_model = d_model
        self.n_head = n_head
        self.n_layer = n_layer
        self.device = device
        self.FeedForward = torch.nn.Sequential(
            nn.Linear(d_model, dff),
            nn.ReLU(True),  
            nn.Linear(dff, d_model)
        )

    def forward(self, encoder_input):
        """
        x.shape -> [batch_size * len_sen * d_model]
        output2.shape -> [batch_size, len_sen, d_model]
        """
        encoder_mask = makePadMask(encoder_input, encoder_input).unsqueeze(-1).repeat(1,1,1,self.n_head)
        x = self.input_Embedding(encoder_input)
        x = self.posembedding(x)
        # 因为是自注意力机制,所以输入MultiHead的QKV都是x,需要循环6次
        for i in range(self.n_layer):
            output1 = self.MultiHeadAttention(x, x, x, encoder_mask) # shape -> [batch_size, len_sen, n_head, d_v]
            output1 += x
            output1 = nn.LayerNorm(self.d_model).to(self.device)(output1)
            # FeedForward Layer 后归一化
            output2 = self.FeedForward(output1)
            output2 = nn.LayerNorm(self.d_model).to(self.device)(output1+output2)  # 进行归一化和残差连接
            x = output2
        return x

解码端

    解码端的搭建其实和编码段极其类似,步骤如下。

1、进行word Embedding 后加入位置编码

2、进行mask(含有PADmask以及序列Mask)的多头自注意力机制后再进行归一化和残差连接

3、第二步的输出作为Q矩阵,编码段的输出复制两份作为K和V矩阵,输入到多头自注意力机制中(含有PAD Mask不含序列Mask),再进行归一化和残差连接

4、输入前馈神经网络后再归一化和残差连接

5、二,三,四步重复N次,在论文中为6次

    先介绍一下第二步的Mask,在Transformer中,我们会根据原文一个字一个字得生成译文。但是这样的话训练的效率就会大打折扣,所以我们只在预测时这么做,而在训练时我们则会加入一个序列Mask来解决此问题,与Pad Mask不让网络看到PAD部分的作用类似,其目的就是不让解码端看到当前位置之后的译文,这样我们就可以把整个译文输入的网络中,大大提高了并行性,训练速度得到了很大的提升。 

    那么序列Mask长什么样子呢?可以参考上图,其和PAD Mask一样也是一个bool矩阵,但是它是一个上三角为True其余部分为False的方阵。从结构图可知,解码端的多头注意力机制与编码端的不同,它是带mask的,这个mask就是序列mask,但是在多头注意力机制的Scaled Dot-Product Attention层中本身就有一个PAD Mask,所以要同时进行PAD Mask和序列Mask,我们在进行Mask的时候会直接将两个Mask矩阵进行相加(两个矩阵维度一致)然后再统一在Scaled Dot-Product Attention层中进行Mask。

    那么第三步的PAD Mask又代表什么含义呢,上面提到过,第三步的输入包含了解码端的输出,而解码端的输入是存在PAD的,而我们不希望解码端输入部分的PAD起作用,所以需要Mask掉。

    解码端部分代码如下所示:

class Decoder(nn.Module):
    def __init__(self, device, len_vocabulary, d_model=512, dff=2048, n_head=8, n_layer=6):
        super(Decoder, self).__init__()
        self.n_head = n_head
        self.device = device
        self.n_layer = n_layer
        self.MultiHeadAttention = MultiHeadAttention()  # 多头注意力机制
        self.posembedding = PositionalEncoding()  # 位置编码
        self.input_Embedding = torch.nn.Embedding(len_vocabulary, d_model)  # 词嵌入
        self.d_model, self.dff = d_model, dff
        self.FeedForward = torch.nn.Sequential(
            nn.Linear(d_model, dff),
            nn.ReLU(True),
            nn.Linear(dff, d_model)
        )
        
    def forward(self, decoder_input, encoder_input, encoder_out1, encoder_out2):
        """
        decoder_input.shape -> [batch_size, len_seq1]
        encoder_input.shape -> [batch_size, len_seq2]
        encoder_out1.shape = encoder_out2.shape -> [batch_size, len_seq2, d_model] 
        """
        # 第一层 (包括Seq mask and PAD mask)
        pad_mask = makePadMask(decoder_input, decoder_input)
        seq_mask = makeSeqMask(decoder_input).to(self.device)
        x = self.input_Embedding(decoder_input)
        x = self.posembedding(x)
        Layer1_mask = (seq_mask+pad_mask).unsqueeze(-1).repeat(1, 1, 1, self.n_head)
        for i in range(self.n_layer):  # 重复6次
            output1 = self.MultiHeadAttention(x, x, x, Layer1_mask)
            output1 = nn.LayerNorm(self.d_model).to(self.device)(output1+x)
            # 第二层  (没有Seq mask,只有PAD mask)
            Layer2_padmask = makePadMask(decoder_input, encoder_input).unsqueeze(-1).repeat(1, 1, 1, self.n_head)
            output2 = self.MultiHeadAttention(output1, encoder_out1, encoder_out2, Layer2_padmask)
            output2 = nn.LayerNorm(self.d_model).to(self.device)(output2+output1)
            # 第三层
            output3 = self.FeedForward(output2)
            output3 = nn.LayerNorm(self.d_model).to(self.device)(output3+output2)
            x = output3
        return x

训练

    我们将网络结构定义完成之后就正式开始训练,数据集就使用上文的那三句话,训练的步骤也非常简单,

1、定义数据集

2、定义损失函数以及优化器

3、遍历数据集开始训练

    上文说过在定义数据集的时候一定需要做预处理,就是将每一个Batch_Size的数据定义成一个矩阵再输入到网络中,以下为数据的定义代码。

# 定义训练集
encoder_input, decoder_input, target = make_data(sentences, CN_glossary, EN_glossary)  

# 我们使用DataLoader中的collate_fn对其进行处理将其变为一个矩阵
trainloader = DataLoader(trainset, batch_size=3, shuffle=False, collate_fn=make_Pad)  
### 下面是函数的实现方式
# 构造数据
def make_data(sentences, CN_glossary, EN_glossary):
    """
    将单词序列转变为数字序列
    sentenses:待转变的数据集
    """
    encoder_input, decoder_input, target = [], [], []
    max_len = 0
    for i in range(len(sentences)):
        temp = sentences[i][0].split()
        encoder_input.append([CN_glossary[j] for j in temp])
        decoder_input.append([EN_glossary[j] for j in sentences[i][1].split()])
        target.append([EN_glossary[j] for j in sentences[i][2].split()])
    return encoder_input, decoder_input, target

# 对同一batch的数据(中英数据)进行PAD填充
def make_Pad(batch):
    """
    根据dataset取出前batch_size个数据,然后弄成一个列表(Tensor矩阵)
    中英文数据都要进行PAD(填充0)
    """
    batch_size = len(batch)
    maxLen = 3 * [0]
    batch = list(zip(*batch))
    # batch[0]为同一batch下所有的encoder_input
    # batch[1]为-------------的decoder_input
    # batch[2]为-------------的target
    # 现将其PAD,并转成Tensor矩阵 
    
    # 确定同一batch_size下encoder_input,decoder_input,target的最大长度
    for i in range(3):
        for j in range(batch_size):
            maxLen[i] = max(maxLen[i], len(batch[i][j]))
    # 根据最大长度往后补0
    for i in range(3):
        for j in range(batch_size):
            for k in range(len(batch[i][j]), maxLen[i]):
                batch[i][j].append(0)
    return torch.LongTensor(batch[0]), torch.LongTensor(batch[1]), torch.LongTensor(batch[2])

训练部分的代码如下:

def train(args, dataloader, len_CNvocabulary, len_ENvocabulary):
    # 定义网络,损失函数以及优化器
    net = Transformer(args.device, len_CNvocabulary, len_ENvocabulary, args.d_model, args.dff, args.n_head, args.n_layer)
    net = net.to(args.device)
    criterion = torch.nn.CrossEntropyLoss(ignore_index=0) # 去除PAD的影响
    criterion = criterion.to(args.device)
    optimizer = torch.optim.AdamW(net.parameters(), lr=1e-5)

    # 开始训练
    net.train()
    for epoch in range(args.epochs):
        for encoder_input, decoder_input, target in dataloader:
            encoder_input,decoder_input,target = encoder_input.to(args.device),decoder_input.to(args.device),target.to(args.device)
            output = net(encoder_input, decoder_input)
            loss = criterion(output, target.view(-1))
            print("epoch:{}, loss:{}".format(epoch,loss))
            optimizer.zero_grad()
            loss.backward()
            optimizer.step()
    torch.save(net.state_dict(), 'transformer1.pth')

预测

    上文提到过,在训练的时候我们会加入序列Mask用来提高训练速度,但是在预测时我们则会根据原文来一个字一个字地生成译文。实现方式如下:

def pred(args, encoder_input, start_symbol, end_symbol):
    """
    start_symbol 代表 S
    end_symbol 代表 E
    """
    # 定义网络 并导入模型参数
    net = Transformer(args.device, len_CNvocabulary, len_ENvocabulary, args.d_model, args.dff, args.n_head, args.n_layer)
    net = net.to(args.device)
    net.load_state_dict(torch.load("transformer1.pth"))
    # 要从S开始一个字一个字地预测直到E结束
    decoder_input = torch.ones(1, 1).int().to(args.device) * start_symbol # 最开始decoder_input就是 “S”
    while True:  # 无限循环,直到网络输出END字符为止
        encoder_output = net.encoder(encoder_input)
        decoder_output = net.decoder(decoder_input, encoder_input, encoder_output, encoder_output)
        output = net.Projection(decoder_output).view(-1, len_ENvocabulary)
        _, index = output.max(1)  # 概率最大的为下一个字
        next_symbol = torch.ones(1, 1).int().to(args.device) * index[-1]
        if next_symbol == end_symbol:
            break
        else:
            # 要将预测的字放入,再输入到网络
            decoder_input = torch.cat([decoder_input, next_symbol], dim=1)
    return decoder_input

结果展示

    因为我们提供的数据比较小,我们就以训练集的其中一句话来进行预测,可以看到翻译正确。

  • 4
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
Transformer发轫于NLP(自然语言处理),并跨界应用到CV(计算机视觉)领域。目前已成为深度学习的新范式,影响力和应用前景巨大。  本课程对Transformer的原理和PyTorch代码进行精讲,来帮助大家掌握其详细原理和具体实现。  原理精讲部分包括:注意力机制和自注意力机制、Transformer的架构概述、Encoder的多头注意力(Multi-Head Attention)、Encoder的位置编码(Positional Encoding)、残差链接、层规范化(Layer Normalization)、FFN(Feed Forward Network)、Transformer的训练及性能、Transformer的机器翻译工作流程。   代码精讲部分使用Jupyter Notebook对TransformerPyTorch代码进行逐行解读,包括:安装PyTorchTransformer的Encoder代码解读、Transformer的Decoder代码解读、Transformer的超参设置代码解读、Transformer的训练示例(人为随机数据)代码解读、Transformer的训练示例(德语-英语机器翻译)代码解读。相关课程: 《Transformer原理与代码精讲(PyTorch)》https://edu.csdn.net/course/detail/36697《Transformer原理与代码精讲(TensorFlow)》https://edu.csdn.net/course/detail/36699《ViT(Vision Transformer)原理与代码精讲》https://edu.csdn.net/course/detail/36719《DETR原理与代码精讲》https://edu.csdn.net/course/detail/36768《Swin Transformer实战目标检测:训练自己的数据集》https://edu.csdn.net/course/detail/36585《Swin Transformer实战实例分割:训练自己的数据集》https://edu.csdn.net/course/detail/36586《Swin Transformer原理与代码精讲》 https://download.csdn.net/course/detail/37045
### 回答1: Transformer是一种基于自注意力机制的神经网络模型,用于处理序列到序列的任务,如机器翻译、文本摘要等。PyTorch是一个流行的深度学习框架,提供了实现Transformer模型的工具和库。使用PyTorch实现Transformer模型可以方便地进行模型训练和调试,并且可以利用PyTorch的自动求导功能来优化模型参数。 ### 回答2: Transformer是一种用于序列建模的深度学习模型,它可以用于自然语言处理中的机器翻译、文本分类、语言模型等任务。它的设计思路是利用注意力机制来捕捉输入序列之间的关系。 PyTorch是一种基于Python的优秀的深度学习框架。在PyTorch中,可以使用预定义的模型类来实现Transformer模型。Transformer模型在PyTorch框架中实现的方法主要分为两种:自定义层和PyTorch自带模块。 自定义层 在PyTorch中,借助于nn.Module和nn.Parameter类,可以轻松地定义自己的模型层。下面是一个例子: ``` import torch import torch.nn as nn import torch.nn.functional as F class MultiHeadAttention(nn.Module): def __init__(self, d_model, heads): super().__init__() self.d_model = d_model self.heads = heads assert d_model % heads == 0 self.d_k = d_model // heads self.q_linear = nn.Linear(d_model, d_model) self.v_linear = nn.Linear(d_model, d_model) self.k_linear = nn.Linear(d_model, d_model) self.out = nn.Linear(d_model, d_model) def forward(self, q, k, v, mask=None): bs = q.size(0) q = self.q_linear(q).view(bs, -1, self.heads, self.d_k) k = self.k_linear(k).view(bs, -1, self.heads, self.d_k) v = self.v_linear(v).view(bs, -1, self.heads, self.d_k) q = q.permute(0, 2, 1, 3) k = k.permute(0, 2, 1, 3) v = v.permute(0, 2, 1, 3) scores = torch.matmul(q, k.transpose(-2, -1)) / torch.sqrt(torch.tensor(self.d_k, dtype=torch.float32)) if mask is not None: mask = mask.unsqueeze(1).repeat(1, self.heads, 1, 1) scores = scores.masked_fill(mask == 0, -1e9) scores = F.softmax(scores, dim=-1) attention = torch.matmul(scores, v) attention = attention.permute(0, 2, 1, 3).contiguous() attention = attention.view(bs, -1, self.heads * self.d_k) return self.out(attention) ``` 此处定义了一个MultiHeadAttention类,并在初始化函数中定义各个线性层,而forward函数则为模型的前向传递代码。 其中,MultiHeadAttention中的q、k、v分别表示查询、键和值的输入张量,mask为特殊的掩码,用于限制注意力机制只看前面的信息。在forward函数中,我们首先把输入张量传递到各自的线性层中,然后按照头数分割,为每个头初始化查询、键和值(使用view函数),然后使用softmax归一化注意力分布,最后用权重矩阵与值矩阵的乘积形成输出。最后我们将头合并,返回输出张量。 这样,我们就可以通过自定义层的方式来定义Transformer模型。需要注意的是,在整个模型中,每一个自定义层应该加一次Layer Normalization。 使用PyTorch自带模块 除了使用自定义层,PyTorch还提供了一些预定义的模块类,用于模型的构建。下面是一个使用PyTorch自带模块搭建的Transformer模型: ``` import torch import torch.nn as nn import torch.nn.functional as F from torch.autograd import Variable class MultiHeadAttention(nn.Module): def __init__(self, d_model, heads): super().__init__() self.d_model = d_model self.heads = heads assert d_model % heads == 0 self.d_k = d_model // heads self.qkv = nn.Linear(d_model, 3 * d_model) self.out = nn.Linear(d_model, d_model) def forward(self, q, k, v, mask=None): bs = q.size(0) qkv = self.qkv(torch.cat([q, k, v], dim=-1)) qkv = qkv.view(bs, -1, self.heads, 3 * self.d_k).transpose(1, 2) q, k, v = qkv[:, :, :, :self.d_k], qkv[:, :, :, self.d_k:2*self.d_k], qkv[:, :, :, 2*self.d_k:] scores = torch.matmul(q, k.transpose(-2, -1)) / torch.sqrt(torch.tensor(self.d_k, dtype=torch.float32)) if mask is not None: mask = mask.unsqueeze(1).repeat(1, self.heads, 1, 1) scores = scores.masked_fill(mask == 0, -1e9) scores = F.softmax(scores, dim=-1) attention = torch.matmul(scores, v) attention = attention.transpose(1, 2).contiguous().view(bs, -1, self.heads * self.d_k) return self.out(attention) class PositionwiseFeedForward(nn.Module): def __init__(self, d_model, hidden_dim): super().__init__() self.fc1 = nn.Linear(d_model, hidden_dim) self.fc2 = nn.Linear(hidden_dim, d_model) def forward(self, x): return self.fc2(F.relu(self.fc1(x))) class Normalization(nn.Module): def __init__(self, d_model): super().__init__() self.d_model = d_model self.alpha = nn.Parameter(torch.ones(self.d_model)) self.bias = nn.Parameter(torch.zeros(self.d_model)) def forward(self, x): norm = self.alpha * (x - x.mean(dim=-1, keepdim=True)) / (x.std(dim=-1, keepdim=True) + 1e-6) + self.bias return norm class EncoderLayer(nn.Module): def __init__(self, d_model, heads, hidden_dim): super().__init__() self.attention = MultiHeadAttention(d_model=d_model, heads=heads) self.norm1 = Normalization(d_model=d_model) self.dropout1 = nn.Dropout(0.5) self.feed_forward = PositionwiseFeedForward(d_model=d_model, hidden_dim=hidden_dim) self.norm2 = Normalization(d_model=d_model) self.dropout2 = nn.Dropout(0.5) def forward(self, x, mask=None): x2 = self.attention(x, x, x, mask=mask) x = self.norm1(x + self.dropout1(x2)) x2 = self.feed_forward(x) x = self.norm2(x + self.dropout2(x2)) return x class Encoder(nn.Module): def __init__(self, d_model, heads, hidden_dim, num_layers): super().__init__() self.layers = nn.ModuleList([ EncoderLayer(d_model=d_model, heads=heads, hidden_dim=hidden_dim) for _ in range(num_layers) ]) def forward(self, src, mask=None): for layer in self.layers: src = layer(src, mask=mask) return src class DecoderLayer(nn.Module): def __init__(self, d_model, heads, hidden_dim): super().__init__() self.attention1 = MultiHeadAttention(d_model=d_model, heads=heads) self.norm1 = Normalization(d_model=d_model) self.dropout1 = nn.Dropout(0.5) self.attention2 = MultiHeadAttention(d_model=d_model, heads=heads) self.norm2 = Normalization(d_model=d_model) self.dropout2 = nn.Dropout(0.5) self.feed_forward = PositionwiseFeedForward(d_model=d_model, hidden_dim=hidden_dim) self.norm3 = Normalization(d_model=d_model) self.dropout3 = nn.Dropout(0.5) def forward(self, x, memory, src_mask=None, tgt_mask=None): x2 = self.attention1(x, x, x, mask=tgt_mask) x = self.norm1(x + self.dropout1(x2)) x2 = self.attention2(x, memory, memory, mask=src_mask) x = self.norm2(x + self.dropout2(x2)) x2 = self.feed_forward(x) x = self.norm3(x + self.dropout3(x2)) return x class Decoder(nn.Module): def __init__(self, d_model, heads, hidden_dim, num_layers): super().__init__() self.layers = nn.ModuleList([ DecoderLayer(d_model=d_model, heads=heads, hidden_dim=hidden_dim) for _ in range(num_layers) ]) def forward(self, tgt, memory, src_mask=None, tgt_mask=None): for layer in self.layers: tgt = layer(tgt, memory, src_mask=src_mask, tgt_mask=tgt_mask) return tgt class Transformer(nn.Module): def __init__(self, d_model, heads, hidden_dim, num_layers, src_vocab_size, tgt_vocab_size, max_length): super().__init__() self.encoder = Encoder(d_model=d_model, heads=heads, hidden_dim=hidden_dim, num_layers=num_layers) self.decoder = Decoder(d_model=d_model, heads=heads, hidden_dim=hidden_dim, num_layers=num_layers) self.src_embedding = nn.Embedding(src_vocab_size, d_model) self.tgt_embedding = nn.Embedding(tgt_vocab_size, d_model) self.out = nn.Linear(d_model, tgt_vocab_size) self.max_length = max_length def make_src_mask(self, src): src_mask = (src != 0) return src_mask def make_tgt_mask(self, tgt): tgt_pad_mask = (tgt != 0) tgt_len = tgt.shape[1] tgt_sub_mask = torch.tril(torch.ones((tgt_len, tgt_len))) tgt_mask = tgt_pad_mask.unsqueeze(1) & tgt_sub_mask return tgt_mask def forward(self, src, tgt): src_mask = self.make_src_mask(src) tgt_mask = self.make_tgt_mask(tgt) src_embedded = self.src_embedding(src) tgt_embedded = self.tgt_embedding(tgt) memory = self.encoder(src_embedded, mask=src_mask) output = self.decoder(tgt_embedded, memory, src_mask=src_mask, tgt_mask=tgt_mask) output = self.out(output) return output ``` 与自定义层类似,在PyTorch实现Transformer模型也借助于nn.Module和nn.Parameter类定义自己的模型层。上述代码中,分别定义了MultiHeadAttention、PositionwiseFeedForward、Normalization、EncoderLayer、Encoder、DecoderLayer、DecoderTransformer八个类,一共分为Encoder、DecoderTransformer三部分。 对于Transformer模型而言,Encoder有若干个EncoderLayer层,每个EncoderLayer层中有一个MultiHeadAttention层和一个PositionwiseFeedForward层,而Decoder中也有若干个DecoderLayer层,每个DecoderLayer层中有两个MultiHeadAttention层和一个PositionwiseFeedForward层。在Encoder和Decoder的代码中,还分别添加了make_src_mask和make_tgt_mask函数,用于生成掩码。 最后,我们使用Transformer类将Encoder和Decoder组合在一起,并实现整个模型的前向传递。在前向传递的过程中,我们需要先通过词向量嵌入层将输入编码,然后在Encoder中将编码的输入信息进行处理,并在Decoder中将编码信息解码,最终通过输出层得到输出。整个模型都是基于PyTorch的自带模块组合而成的。 综上所述,通过自定义层或者利用PyTorch自带模块,我们可以很容易地实现Transformer模型,并使用PyTorch框架进行训练和预测等操作。 ### 回答3: transformer是自然语言处理领域一种重要的模型,它在机器翻译、文本生成、文本分类等任务中都有广泛的应用。PyTorch是一种流行的深度学习框架,它能够帮助我们更加方便地实现各种深度学习算法,包括transformertransformer模型的核心是自注意力机制,它可以让模型在处理序列数据时能够自动地关注到重要的信息。具体来说,transformer的自注意力机制包含了三个部分:查询(Q)、键(K)和值(V)。每个部分都是向量,其中查询向量表示我们希望关注到的信息,而键向量和值向量则表示序列中的每个位置都包含的信息。通过计算查询向量和所有键向量之间的相似度,我们可以得到一个权重向量,用来表示每个位置对于查询向量的重要程度。然后,我们可以将重要程度和对应位置的值向量加权求和,得到自注意力机制的输出。 在PyTorch实现transformer模型,我们可以借助官方提供的transformer模块,只需要定义好模型的输入、输出、层数等超参数,就能够很方便地搭建一个transformer模型。下面是一个实现transformer模型的样例代码: import torch.nn as nn import torch.nn.functional as F from torch.nn import TransformerEncoder, TransformerEncoderLayer class TransformerModel(nn.Module): def __init__(self, ntoken, ninp, nhead, nhid, nlayers, dropout=0.5): super(TransformerModel, self).__init__() self.pos_encoder = PositionalEncoding(ninp, dropout) encoder_layers = TransformerEncoderLayer(ninp, nhead, nhid, dropout) self.transformer_encoder = TransformerEncoder(encoder_layers, nlayers) self.encoder = nn.Embedding(ntoken, ninp) self.ninp = ninp self.decoder = nn.Linear(ninp, ntoken) self.init_weights() def init_weights(self): initrange = 0.1 self.encoder.weight.data.uniform_(-initrange, initrange) self.decoder.bias.data.zero_() self.decoder.weight.data.uniform_(-initrange, initrange) def forward(self, src, src_mask): src = self.encoder(src) * math.sqrt(self.ninp) src = self.pos_encoder(src) output = self.transformer_encoder(src, src_mask) output = self.decoder(output) return output 其中,我们使用了PositionalEncoding模块来对输入的序列进行位置编码,EncoderLayer模块实现transformer的一个编码层,Encoder模块则包含了多个编码层,组成了整个transformer模型。在forward函数中,我们首先对输入进行嵌入和位置编码操作,然后使用transformer编码器进行编码,最后通过线性层得到模型的输出。 总之,PyTorch提供了方便的transformer模块实现方式,我们只需要定义好模型的超参数和组件,就可以快速搭建出一个强大的transformer模型来处理不同的NLP任务。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

ing100

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值