NLP学习笔记:seq2seq

1 基于RNN生成文本,seq2seq(从一个时序到另一个时序的神经网络)。
2 语言模型:根据已经出现的单词输出下一个出现的单词的概率分布。


3 如何生成下一个新单词:选择概率分布中概率最高的单词(确定性方法);根据概率分布进行概率性的选择(概率性的方法)。


4 步骤:生成单词的语言模型-->获得单词的概率分布-->根据概率分布采样下一个出现的单词
5 seq2seq:又称 Encoder Decoder model 。


6 seq2seq改进:反转输入数据(直观的认为反转数据后反向传播梯度更加平滑)。


7 seq2seq改进:Peeky(偷窥),将编码器输出的隐藏状态信息h分配给解码器所有的LSTM和Affine层,加入Peeky后模型参数增加带来计算量的负担。


8 seq2seq的应用:机器翻译、自动摘要、问答系统、邮件自动回复、图像自动描述等。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

冲冲冲@chong

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值