seq2seq logits和labels维度不一致问题

本文探讨了在seq2seq模型的decode阶段,由于trainingHelper的sequence_length设置导致的logits和labels维度不匹配问题。关键在于理解training_logits的形状(batch_size * target_sequence_length * decoder_embedding_size)需要与targets的形状(batch_size * target_sequence_length)在第二维度上保持一致。解决此问题的方法是在生成batch时确保targets的sequence_length保持一致。
摘要由CSDN通过智能技术生成

在decode阶段,训练结果的维度通常由trainingHelper中的sequence_length指定。

training_logits的shape为batch_size*target_sequence_length*decoder_embeding_size,

其中第二维度是每批target数据的固定长度,

embeding_size是转换后的解码层维度,

即decoder_embed_input向量的列维

  with tf.variable_scope("decode"):
        # 得到help对象
        training_helper = tf.contrib.seq2seq.TrainingHelper(inputs=decoder_embed_input,
                                                     
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值