RNN
风吹草地现牛羊的马
这个作者很懒,什么都没留下…
展开
-
rnn_utils.pack_padded_sequence的作用
Pytorch中的RNN之pack_padded_sequence()和pad_packed_sequence()原创 2020-03-29 23:47:35 · 1402 阅读 · 0 评论 -
Tensorflow搭建LSTM中参数的理解
https://blog.csdn.net/weixin_41041772/article/details/88032093https://blog.csdn.net/yyb19951015/article/details/79740869?utm_source=blogxgwz8https://blog.csdn.net/ZJRN1027/article/details/80301039...转载 2019-04-08 16:54:08 · 2238 阅读 · 0 评论 -
LSTM原理及实现
原文博客:https://blog.csdn.net/gzj_1101/article/details/79376798转载 2019-03-26 15:25:49 · 995 阅读 · 0 评论 -
TensorFlow实战:LSTM的结构与cell中的参数
一些参数训练的话一般一批一批训练,即让batch_size 个句子同时训练;每个句子的单词个数为num_steps,由于句子长度就是时间长度,因此用num_steps代表句子长度。在NLP问题中,我们用词向量表示一个单词(一个数基本不能表示一个词,大家应该都知道的吧,可以去了解下词向量),我们设定词向量的长度为wordvec_size。LSTM结构中是一个神经网络,即下图的...转载 2019-04-09 17:42:36 · 5122 阅读 · 4 评论 -
tf.nn.dynamic_rnn返回值详解
函数原型tf.nn.dynamic_rnn( cell, inputs, sequence_length=None, initial_state=None, dtype=None, parallel_iterations=None, swap_memory=False, time_major=False, scope=Non...原创 2019-04-13 11:48:58 · 695 阅读 · 1 评论 -
Seq2Seq and Attention 入门
Seq2Seq and Attention参考文献[1] Cho 在 2014 年在论文《Learning Phrase Representations using RNN Encoder–Decoderfor Statistical Machine Translation》中提出 Encoder–Decoder 结构[2] Sutskever et al 2014年在论文 《Sequen...转载 2019-04-16 17:26:34 · 382 阅读 · 0 评论