seq2seq模型_Seq2seq+Attention模型最通俗易懂的讲解

26e015de44f5fd54619b5238cfaf462a.png

前言:

这些天接触到了Seq2seq模型,然后遇到了一个国外的大神讲解这个模型,十分的通俗易懂,特意分享给大家,也会添加一些个人见解。

简介:

Seq2seq模型现在已经在机器翻译、文本摘要和图像解释方面取得了很大的成功。谷歌翻译在2016年使用这个模型。Seq2seq模型的输入是序列化数据(比如单词、信件内容、图片特征等),输出也是序列化数据。

模型训练过程如下所示:

知乎视频​www.zhihu.com

在机器翻译的网络中,输入序列是一串单词,一个接着一个进行输入,输出也是一系列单词,过程如下:

知乎视频​www.zhihu.com

揭秘Seq2seq内部

Seq2seq是由 encoderdecoder两个部分组成。

encoder对输入的内容进行处理,然后输出成一个向量,称为context, 在经过encoder之后生成的contenxt会被送到decoder部分,decoder会接收context然后产生输出序列。整体过

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值