Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation文献阅读笔记

发表日期、所属会议/期刊/预印本:

arXiv 2014

做得什么:

本文提出了一种新的神经网络模型,即RNN Encoder-Decoder, 由两个神经网络(RNN)组成。一个RNN将一个符号序列(sequence of symbols)编码成一个固定长度的向量表示,另一个则将这个表示解码成另一个符号序列。该模型的编码器和解码器被联合训练,以最大化给定源序列的目标序列的条件概率。对学习语言短句的表达且其在语义上和句法上都是有意义的。

怎么做的(重点):

  • 循环神经网络(RNN)

循环神经网络(RNN)是一个包含隐藏状态h和可变输出y的神经网络,其可操作于可变长度序列x =(x1,…,xT).。在每个时间步长t,f 是非线性激活函数,RNN的隐藏状态更新:在这里插入图片描述
通过训练预测序列中的下一个symbol,RNN可以学习序列上的概率分布。在这种情况下,每个时间步长t的输出是条件分布 p(xt|xt−1,…,x1)。例如,对于所有 j=1,…,K,可以使用softmax激活功能输出多项式分布(1-K编码):
在这里插入图片描述
计算序列x的概率,每个时间步长迭代采样符号来直接抽样新序列:

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值