tensorflow RNN layer的搭建(GRU,LSTM等)

这篇博客介绍了如何在TensorFlow中构建RNN层,特别是GRU和LSTM单元。内容包括GRU的输入维度解释,如[样本量, RNN时间步数, 每一步输入向量长度],以及RNN的参数如rnn_size(等于输入向量长度)和num_layers(RNN层数)。文章还提到RNN的输出,包括所有状态的列表和最后一个状态,并指出在LSTM中只需将GRU_cell替换为LSTM_cell。" 88787733,8384752,Python编程:外星人入侵游戏详解,"['Python', '游戏开发', 'pygame', '外星人入侵', '编程教程']
摘要由CSDN通过智能技术生成

以GRU为例:

import tensorflow as tf

def get_encoder_layer(inputs, rnn_size, num_layers, layer_name):
    
    with tf.variable_scope(layer_name):
            
        def get_gru_cell(rnn_size):
            gru_cell = tf.contrib.rnn.GRUCell(rnn_size, kernel_initializer=tf.random_uniform_initializer(-0.1, 0.1, seed=2),bias_initializer=tf.random_uniform_initializer(-0.1, 0.1, seed
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值