深度学习(五):对对联,根据上联,对下联

NLP文本生成任务

文本生成的场景:看图说话、写摘要。。。
在这里插入图片描述

Seq2seq&Attention机制

在这里插入图片描述
Attention本质是权重,在翻译句子时候,汇集于前面单词不同的关注度。
在这里插入图片描述

数据处理流程

其中Lookup-Table中:Word2Vector、ElMO、Glove等来训练词向量。 预训练好的Embedding。
在这里插入图片描述

LSTM——循环神经网络

在这里插入图片描述
在这里插入图片描述

注意力机制(Attention)

目的:学到的权重。
在这里插入图片描述
在这里插入图片描述

实战:对对联

在这里插入图片描述

总结

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Laura_Wangzx

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值