Seq2SeqModel已经广泛应用在机器翻译,QA问答,人工对话等一些自然语言处理问题中。其中tensorflow中有现成的框架,下面将进行介绍:
机器翻译中的seq2seq的模型框架及相应参数;
Seq2SeqModel(source_vocab_size,
target_vocab_size,
buckets,
size,
num_layers,
max_gradient_norm,
batch_size,
learning_rate,
learning_rate_decay_factor,
use_lstm=False,
num_samples=512,
forward_only=False,
dtype=tf.float32)
参数详解:
source_vocab_size,在序列到序列的任务中,训练数据的源数据的词汇表大小;如序列对(A,B)中A的大小
target_vocab_size,同上目标词汇表B的大小
buckets,为了解决不同长度输入而设定的,如[(5,10),(10,15),(15,20),(20,40)],如输入长度为9时,选择(10,15)的范围ÿ