深度学习(五):NLP文本生成任务——对对联,根据上联,对下联 NLP文本生成任务Seq2seq&Attention机制数据处理流程LSTM——循环神经网络注意力机制(Attention) 实战:对对联总结 NLP文本生成任务 文本生成的场景:看图说话、写摘要。。。 Seq2seq&Attention机制 Attention本质是权重,在翻译句子时候,汇集于前面单词不同的关注度。 数据处理流程 其中Lookup-Table中:Word2Vector、ElMO、Glove等来训练词向量。 预训练好的Embedding。 LSTM——循环神经网络 注意力机制(Attention) 目的:学到的权重。 实战:对对联 总结