RNN——LSTM构建动态多层网络的问题

在构建多层LSTM结构时容易出现以下错误

ValueError: Dimensions must be equal, but are 200 and 104 for 'stack_bidirectional_rnn/cell_0/bidirectional_rnn/fw/fw/while/fw/multi_rnn_cell/cell_0/basic_lstm_cell/MatMul_1' (op: 'MatMul') with input shapes: [?,200], [104,400]

ValueError: Dimensions must be equal, but are 200 and 104 for 'stack_bidirectional_rnn/cell_0/bidirectional_rnn/fw/fw/while/fw/multi_rnn_cell/cell_0/basic_lstm_cell/MatMul_1' (op: 'MatMul') with input shapes: [?,200], [104,400]

设置不同的隐含层节点上面的数字会不同,主要由下面这一段代码引起:

lstm_fw_cell = tf.contrib.rnn.BasicLSTMCell(n_hidden, forget_bias=1.0)
lstm_bw_cell = tf.contrib.rnn.BasicLSTMCell(n_hidden, forget_bias=1.0)

stacked_fw_rnn = []
stacked_bw_rnn = []

for i in range(num_layer):
    stacked_fw_rnn.append(lstm_fw_cell)
    stacked_bw_rnn.append(lstm_bw_cell)

mcell_fw = tf.contrib.rnn.MultiRNNCell(stacked_fw_rnn,state_is_tuple=True)
mcell_bw = tf.contrib.rnn.MultiRNNCell(stacked_bw_rnn,state_is_tuple=True)

上面这段代码主要是先定义好正向和反向的cell, 再根据设置的隐含层数目用append将其构建成列表,

再看下面的代码与其区别:

stacked_fw_rnn = []
stacked_bw_rnn = []

for i in range(num_layer):
    stacked_fw_rnn.append(tf.contrib.rnn.BasicLSTMCell(n_hidden, forget_bias=1.0))
    stacked_bw_rnn.append(tf.contrib.rnn.BasicLSTMCell(n_hidden, forget_bias=1.0))

# 实现多层搭建
mcell_fw = tf.contrib.rnn.MultiRNNCell(stacked_fw_rnn,state_is_tuple=True)
mcell_bw = tf.contrib.rnn.MultiRNNCell(stacked_bw_rnn,state_is_tuple=True)
主要区别就在于每构建一层都会调用一次tf.contrib.rnn.BasicLSTMCell,问题可以解决

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值