transformer_lstm_example

import torch
import torch.nn as nn

import os

os.environ['KMP_DUPLICATE_LIB_OK'] = 'True'

class TransModel(nn.Module):
    def __init__(self, hidden_dim, num_head, num_layers):
        super().__init__()

        encoder_layer = nn.TransformerEncoderLayer(
            d_model=hidden_dim,
            nhead=num_head
        )
        self.encoder = nn.TransformerEncoder(
            encoder_layer,
            num_layers=num_layers
        )

        self.lstm = nn.LSTM(
            input_size=hidden_dim,
            hidden_size=hidden_dim,
            num_layers=1,
            batch_first=True,
            bidirectional=True # 表示双向
        )


    def forward(self, input):
        '''
            input: [batch_size, max_seq_len, hidden_dim]
        '''
        # [batch_size, max_seq_len, hidden_dim]
        encoder_output = self.encoder(input)
        # [batch_size, max_seq_len, hidden_dim*2]
        lstm_output, _ = self.lstm(encoder_output)
        return lstm_output


device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
hidden_dim = 128
model = TransModel(hidden_dim=hidden_dim, num_head=4, num_layers=4).to(device)
# 随机生成一个 batch=5, seq_len=20, hidden_dim=128的随机矩阵
# 如果是你的任务,你需要先把你的raw_text转成下面的inputs tensor
# 我不太确定你是怎么处理的。总之,只要inputs的hidden_dim与model的hidden_dim保持一致,代码就不会报错
inputs = torch.randn(5, 20, hidden_dim).to(device)

output = model(inputs)
print(output.shape)


  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值