tensorflow lstm 预测_解析seq2seq原理+tensorflow实现

043a4c365ae910e81e43fe5fcaaa7e0a.png

1 写在前面

最近抽时间写文章,将自己以前学过的知识总结一下,通过文章记录下来,以后忘记了也可以随时翻阅。

本文主要介绍最基础的seq2seq模型,并尝试使用tensorflow实现。很多朋友都说pytorch很香,所以随后自己有时间也想入门pytorch,尝试写一个pytorch的版本seq2seq。

2 seq2seq模型

2f138c555606639d2c4fe61bf06a6472.png
图1 seq2seq模型

结合图1,我们介绍下seq2seq模型。seq2seq模型可以分为Encoder和Decoder两部分。在seq2seq模型中,Encoder和Decoder模型用LSTM或者GRU实现。这里的Enconder将原句子编码成一个固定大小的有意义的向量 C,然后将向量C作为Decoder的输入,Decoder对向量C解码,最后输出目标句子。

2.1 Encoder

Encoder是一个LSTM。假设我们的输入是 how are you,输入句子中的每个单词

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值