seq2seq 的 keras 实现

本文介绍了如何使用 Keras 构建 seq2seq 模型,包括 Encoder 和 Decoder 的设置,以及如何使用 LSTM 和 GRU 作为 RNN 单元。还提到了简单的 seq2seq 结构,以及深度 seq2seq 模型,同时对比了不同论文中的 seq2seq 模型实现,如加入注意力机制的情况。
摘要由CSDN通过智能技术生成

上一篇 seq2seq 入门 提到了 cho 和 Sutskever 的两篇论文,今天来看一下如何用 keras 建立 seq2seq。

第一个 LSTM 为 Encoder,只在序列结束时输出一个语义向量,所以其 “return_sequences” 参数设置为 “False”

使用 “RepeatVector” 将 Encoder 的输出(最后一个 time step)复制 N 份作为 Decoder 的 N 次输入

第二个 LSTM 为 Decoder, 因为在每一个 time step 都输出,所以其 “return_sequences” 参数设置为 “True”

from keras.models import Sequential
from keras.layers.recurrent import LSTM
from keras.layers.wrappers import TimeDistributed
from keras.layers.core import Dense, RepeatVector

def build_model(input_size, max_out_seq_len, hidden_size):

    model = Sequential()

    # Encoder(第一个 LSTM)     model.add( LSTM(input_dim=input_size, output_dim=hidden_size, return_sequences=False) )


    model.add( Dense(hidden_size, activation="relu") )

    # 使用 "RepeatVector" 将 Encoder 的输出(最后一个 time step)复制 N 份作为 Decoder 的 N 次输入
    model.add( RepeatVector(max_out_seq_len) )

    # D
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值