seq训练时batch_size 个数据进行转置

文章参考:https://www.tinymind.cn/articles/205    作者 | 李理


在实现seq2seq时,对模型的输入encoder_inputs会进行转置操作:

# 以下为将数据进行reshape操作,变成 "序列长度*batch_size" 格式的数据  
# Batch encoder inputs are just re-indexed encoder_inputs.
for length_idx in range(encoder_size):
    batch_encoder_inputs.append(
        np.array([encoder_inputs[batch_idx][length_idx] 
        for batch_idx in range(self.batch_size)], dtype=np.int32))

以下摘用参考文章的话:
encoder list 的大小是batch_size,list的每个元素是一个序列(句子)。这样我们可以得到一个(batch_size x max_len) 的Tensor,但是因为训练时我们需要逐个时刻的计算 ba

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值