【seq2seq】深入浅出讲解seq2seq神经网络模型

  • 本文收录于《深入浅出讲解自然语言处理》专栏,此专栏聚焦于自然语言处理领域的各大经典算法,将持续更新,欢迎大家订阅!
  • 个人主页:有梦想的程序星空
  • 个人介绍:小编是人工智能领域硕士,全栈工程师,深耕Flask后端开发、数据挖掘、NLP、Android开发、自动化等领域,有较丰富的软件系统、人工智能算法服务的研究和开发经验。
  • 如果文章对你有帮助,欢迎关注点赞收藏订阅。

1.Seq2seq背景:

经典的循环神经网络模型的输入序列以及输出序列要求是等长的,然而在机器翻译中,如输入序列:“机器学习”,输出序列:“Machine Learning”,输入输出序列不等长,循环神经网络就不能满足这样的情况。

Seq2seq可以用来处理输入输出序列不等长的问题,是一种特殊的RNN模型。

2.Seq2seq概述:

Seq2seq是一种编码(Encoder)-解码(Decoder)的结构,输入和输出可以是不等长的序列。

Seq2seq包括三个部分:编码器,解码器,以及连接两者的固定大小的状态向量。Encoder通过学习输入,将其编码成一个固定大小的状态向量,然后将状态向量传给Decoder,Decoder再通过对状态向量的学习来进行输出。

3.Seq2seq 编码器(Encoder):

Encoder是一个RNN,也可以是LSTM、GRU等,接收的是每一个单词的词向量,和上一个时间点的隐藏状态。输出的是这个时间点的隐藏状态。其中激活函数可以是sigmoid、tanh、Relu、softmax等。

读完序列中每个单词后,会得到一个固定长度的语义向量。

4.Seq2seq解码器(Decoder):

Decoder是个RNN,也可以是LSTM、GRU等,将encoder得到的语义向量作为初始状态输入到Decoder的RNN中,得到输出序列。可以看到上一时刻的输出会作为当前时刻的输入,而且其中语义向量只作为初始状态参与运算,后面的运算都与语义向量无关。

decoder处理方式还有另外一种,就是语义向量参与了序列所有时刻的运算,上一时刻的输出仍然作为当前时刻的输入,但语义向量会参与所有时刻的运算。

解码器的输出通常有如下几种方法:

(1)贪婪:输出对应最大概率值的单词,计算代价低。

(2)采样:通过对众多概率值采样输出单词。

(3)集束搜索:是一种启发式的算法,提高多个预测创建一个可能结果的扩展树。

5.seq2seq的相关论文:

(1)原始的模型:https://arxiv.org/pdf/1406.1078.pdf

题目为:Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation,由cho在2014年提出。

(2)改进的模型:https://arxiv.org/pdf/1409.3215.pdf

题目为:Sequence to Sequence Learning with Neural Networks。

(3)融入Attention机制的模型:https://arxiv.org/pdf/1409.0473.pdf

题目为:NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE。

6.seq2seq的应用场景:

(1)机器翻译

(2)情感对话生成

(3)文本自动摘要

(4)图片自动描述

  • 4
    点赞
  • 47
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序遇上智能星空

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值