lstm 变长序列_【Reverse】Tensorflow中屏蔽Padding处理变长序列的双向LSTM

本文介绍了如何在Tensorflow中处理变长序列的双向LSTM,通过单向LSTM和`tf.reverse_sequence`来避免Padding的影响。在反向LSTM中,对非Padding部分进行reverse,确保每个方向只计算有效长度,从而解决长序列稀释末状态的问题。
摘要由CSDN通过智能技术生成

0x00 前言

通常我们处理双向LSTM的时候,序列长短不一参差不齐,就不可避免的需要进行padding,

实际上句子长度可能如下所示,为[2, 4, 5],就需要被padding成这样才能作为矩阵传入计算:

array([[1, 2, 0, 0, 0], [2, 1, 4, 3, 0], [3, 2, 1, 5, 4]], dtype=int32)

对于padding的数据做双向LSTM的时候,反向的部分会将0也算入,

虽说对于大多任务中,把padding也算作一个词,做一个padding的embedding,

也是可以获得不错的效果的,但是存在过长的句子时,

大多较短句子后面过多的padding会把末状态过于稀释,

诸如此类,还有各种各样的情况都希望可以双向LSTM可以每个方向都只计算有效长度

0x01 简要解释

这里的方法是采用单向LSTM,配以cell_len来控制终止位置,

正向LSTM正常调用即可,反向LSTM需要对非Padding位进行reverse,

(即有效长度部分逆转,Padding部分不变)

这里和通常直接调用的双向LSTM不同,自定义的成分比较多,例如下面实际场景运用中,

正反向错位合并,普通的LSTM应该不会那么轻松(有点说大话了,至少……看起来没那么明显?)

0x02 函数介绍

# Tensorflow.Reverse()

sess = tf.Session()

inp =

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值