Seq2Seq模型实现(Encoder部分)

最近在做一个多特征多步输出预测的时间序列预测问题,我打算将机器翻译的seq2seq的理论用在预测上面,通过nlp领域的机器翻译,从一般LSTM Seq2Seq -> GRU Seq2Seq -> 基于注意力机制的 Seq2Seq,分别讲解基于pytorch深度学习框架实现Encoder部分的对比。

关于序列到序列框架,在构建模型的时候,对Encoder和Decoder进行拆分,最后通过Seq2Seq整合,如果含有Attention机制,还需要增加attention模块。

Encoder就是处理输入Seq的模块,LSTM 和 GRU Seq2Seq比较类似,区别在于使用的cell类型(LSTM还是GRU)和输出结果(hidden,cell还是只有hidden),attention机制Seq2Seq复杂一些,因为是双向的

1、LSTM Seq2Seq Encoder

img

2层LSTM,数据顺序从下往上。Encoder输入参数:

  • input_dim输入encoder的one-hot向量维度,这个和输入词汇大小一致,就是输入字典长度;

  • emb_dim嵌入层的维度,这一层将one-hot向量转为密度向量,256

    词嵌入在 pytorch 中只需要调用 torch.nn.Embedding(m, n) 就可以了,m 表示单词的总数目,n 表示词嵌入的维度,是一种降维,相当于是一个大矩阵,矩阵的每一行表示一个单词。

  • hid_dim隐藏和cell的状态维度,512;

  • n_layers RNN层数,这里就是2;

  • dropout是要使用的丢失量。这是一个防止过度拟合的正则化参数,0.5;

Encoder返回参数:

  • hidden,隐藏状态
  • cell,单元状态
class Encoder(nn.Module):
    def __init__(self, input_dim, emb_dim, hid_dim, n_layers, dropout):
        super(Encoder,self).__init__()
        self.input_dim=input_dim
        self.emb_dim=emb_dim
        self.hid_dim=hid_dim
        self.n_layers=n_layers
        self.dropout=dropout
        
        self.em
  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值