【tensorflow2.0】42.LSTM和GRU的api补充

    之前讲解了lstm和gru的机制和算法,但是忘记了加代码,这里补充一下。

tf.keras.layers.GRU(
    units, activation='tanh', recurrent_activation='sigmoid', use_bias=True,
    kernel_initializer='glorot_uniform', recurrent_initializer='orthogonal',
    bias_initializer='zeros', kernel_regularizer=None, recurrent_regularizer=None,
    bias_regularizer=None, activity_regularizer=None, kernel_constraint=None,
    recurrent_constraint=None, bias_constraint=None, dropout=0.0,
    recurrent_dropout=0.0, implementation=2, return_sequences=False,
    return_state=False, go_backwards=False, stateful=False, unroll=False,
    time_major=False, reset_after=True, **kwargs
)
'''
units:正整数,输出空间的维数。
activation:要使用的激活功能。默认值:双曲正切(tanh)。如果通过None,则不会应用任何激活(即“线性”激活:)a(x) = x。
recurrent_activation:用于循环步骤的激活功能。默认值:S形(sigmoid)。如果通过None,则不会应用任何激活(即“线性”激活:)a(x) = x。
use_bias:布尔值,层是否使用偏置向量。
kernel_initializer:kernel权重矩阵的初始化程序,用于输入的线性转换。
recurrent_initializer:recurrent_kernel 权重矩阵的初始化程序,用于循环状态的线性转换。
bias_initializer:偏置向量的初始化器。
kernel_regularizer:正则化函数应用于kernel权重矩阵。
recurrent_regularizer:正则化函数应用于recurrent_kernel权重矩阵。
bias_regularizer:正则化函数应用于偏差向量。
activity_regularizer:正则化函数应用于图层的输出(其“激活”)。
kernel_constraint:约束函数应用于kernel权重矩阵。
recurrent_constraint:约束函数应用于recurrent_kernel权重矩阵。
bias_constraint:约束函数应用于偏差向量。
dropout:在0到1之间浮动。要进行线性转换的输入单位的分数。
recurrent_dropout:在0到1之间浮动。为递归状态的线性转换而下降的单位的分数。
implementation:实施模式1或2。模式1将其操作构造为大量较小的点乘积和加法运算,而模式2将其分为较少的较大操作。这些模式在不同的硬件和不同的应用程序上将具有不同的性能配置文件。
return_sequences:布尔值。是返回输出序列中的最后一个输出还是完整序列。
return_state:布尔值。除输出外,是否返回最后一个状态。
go_backwards:布尔值(默认为False)。如果为True,则向后处理输入序列并返回相反的序列。
stateful:布尔值(默认为False)。如果为True,则将批次中索引i的每个样本的最后状态用作下一个批次中索引i的样本的初始状态。
unroll:布尔值(默认为False)。如果为True,则将展开网络,否则将使用符号循环。展开可以加快RNN的速度,尽管它通常会占用更多的内存。展开仅适用于短序列。
reset_after:GRU约定(是否在矩阵乘法之后或之前应用复位门)。False =“之前”,True =“之后”(默认值和CuDNN兼容)。
'''
tf.keras.layers.LSTM(
    units, activation='tanh', recurrent_activation='sigmoid', use_bias=True,
    kernel_initializer='glorot_uniform', recurrent_initializer='orthogonal',
    bias_initializer='zeros', unit_forget_bias=True, kernel_regularizer=None,
    recurrent_regularizer=None, bias_regularizer=None, activity_regularizer=None,
    kernel_constraint=None, recurrent_constraint=None, bias_constraint=None,
    dropout=0.0, recurrent_dropout=0.0, implementation=2, return_sequences=False,
    return_state=False, go_backwards=False, stateful=False, time_major=False,
    unroll=False, **kwargs
)

'''
units:正整数,输出空间的维数。
activation:要使用的激活功能。默认值:双曲正切(tanh)。如果通过None,则不会应用任何激活(即“线性”激活:)a(x) = x。
recurrent_activation:用于循环步骤的激活功能。默认值:S形(sigmoid)。如果通过None,则不会应用任何激活(即“线性”激活:)a(x) = x。
use_bias:布尔值,层是否使用偏置向量。
kernel_initializer:kernel权重矩阵的初始化程序,用于输入的线性转换。
recurrent_initializer:recurrent_kernel权重矩阵的初始化程序,用于循环状态的线性转换。
bias_initializer:偏置向量的初始化器。
unit_forget_bias:布尔值。如果为True,则在初始化时将1加到忘记门的偏置上。将其设置为true也将强制执行 bias_initializer="zeros"。Jozefowicz等人建议使用此方法。。
kernel_regularizer:正则化函数应用于kernel权重矩阵。
recurrent_regularizer:正则化函数应用于 recurrent_kernel权重矩阵。
bias_regularizer:正则化函数应用于偏差向量。
activity_regularizer:正则化函数应用于图层的输出(其“激活”)。
kernel_constraint:约束函数应用于kernel权重矩阵。
recurrent_constraint:约束函数应用于recurrent_kernel 权重矩阵。
bias_constraint:约束函数应用于偏差向量。
dropout:在0到1之间浮动。要进行线性转换的输入单位的分数。
recurrent_dropout:在0到1之间浮动。为递归状态的线性转换而下降的单位的分数。
implementation:实施模式1或2。模式1将其操作构造为大量较小的点乘积和加法运算,而模式2将其分为较少的较大操作。这些模式在不同的硬件和不同的应用程序上将具有不同的性能配置文件。
return_sequences:布尔值。是否返回最后的输出。在输出序列或完整序列中。
return_state:布尔值。除输出外,是否返回最后一个状态。
go_backwards:布尔值(默认为False)。如果为True,则向后处理输入序列并返回相反的序列。
stateful:布尔值(默认为False)。如果为True,则将批次中索引i的每个样本的最后状态用作下一个批次中索引i的样本的初始状态。
unroll:布尔值(默认为False)。如果为True,则将展开网络,否则将使用符号循环。展开可以加快RNN的速度,尽管它通常会占用更多的内存。展开仅适用于短序列。
'''
  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值