tensorflow中的tf.nn.bidirectional_dynamic_rnn

本文介绍了在Tensorflow中使用`tf.nn.bidirectional_dynamic_rnn`构建双向RNN的方法。该函数接受前向和后向cell,返回包括前向和后向输出及状态的元组。输出可以通过`tf.concat`合并,而最后的隐藏状态可用于后续处理。双向LSTM的实现涉及反向序列操作,通过传递相同的cell定义实现。
摘要由CSDN通过智能技术生成

Tensorflow中实现双向RNNs

tf.contrib.rnn.bidirectional_dynamic_rnn()

在tensorflow中已经提供了双向RNNs的接口,使用tf.contrib.rnn.bidirectional_dynamic_rnn()这个函数,就可以很方便的构建双向RNN网络。

首先看下接口的一些参数

bidirectional_dynamic_rnn(
    cell_fw, # 前向 rnn cell
    cell_bw, # 反向 rnn cell
    inputs, # 输入序列.
    sequence_length=None, # 输入序列的实际长度(可选,默认为输入序列的最大长度)
    initial_state_fw=None, # 前向rnn_cell的初始状态(可选)
    initial_state_bw=None, # 反向rnn_cell的初始状态(可选)
    dtype=None, # 初始化和输出的数据类型(可选)
    parallel_iterations=None,
    swap_memory=False,
    time_major=False,  # 决定了输入输出tensor的格式:如果为true, 向量的形状必须为 `[max_time, batch_size, depth]`. 
                       # 如果为false, tensor的形状必须为`[batch_size, max_time, depth]`. 与dynamic_rnn中的time_major类似。
    scope
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值