#torch.nn.RNN
CLASS torch.nn.RNN(*args, **kwargs)
**实现的功能:**实现一个用tanh或者ReLU作为非线性成分的Elman RNN(两种RNN中的一种)
对输入序列中的每个元素做下面的计算。
参数说明:
input_size: 输入x的feature个数,比如x是5*1维向量,那么input_size就是5
hidden_size: 隐层的feature个数,比如h是5*1维向量,那么hidden_size就是5
num_layers: 你想要使用的循环层的个数,你可以搭建多层循环的RNN。默认是1。
nonlinearity: 选择你想要使用的非线性成分,'tanh' or 'relu'。
bias: 是否使用bias,如果是False,那么就不适用上面图中的b。默认是True。
batch_first: 如果是True,那么输入和输出张量使用格式(batch, seq, feature)而不是(seq, batch, feature)
dropout: 非0值则表示,除了最后一层外,给每一层都添加一个Dropout层,默认是0。
bidirectional: 如果为Ture,则表示建立的是双向RNN。默认是False。
输入:input, h_0
input: 不使用batch,则输入的tensor是(seq_len, input_size)
使用batch,则输入的tensor是(seq_len, batch_size, input_size)
这里的input_size就是上面参数说明时候的x的feature。
为了记忆方便,我们选取首字母,简记为:
不使用batch就是SI, 使用batch就是SBI(傻逼哎)。
h_0: 不使用batch,则初始隐层h_0就是(D * num_layers, hidden_size)
使用batch,则初始隐层h_0就是(D * num_layers, batch_size, hidden_size)
这里的D取值和是否构建的是双向RNN有关,双向RNN则D为2,否则D为1
同样为了记忆方便,我们选取首字母,简记为:
不使用batch就是NH,使用batch就是NBH(牛逼吼)。
注意:一般我们都会用batch的方法
输出:output, h_n
output: 不使用batch,则输出就是(seq_len, D * hidden_size)
使用batch,则输出就是(seq_len, batch_size, D * hidden_size)!这里不用batchfirst
同样为了记忆方便,我们选取首字母,简记为:
不使用batch就是SH,使用batch就是SBH(傻逼吼)。
h_n: 不使用batch,则输出就是(D* num_layers, hidden_size)
使用batch,则输出就是(D * num_layers, batch_size, hidden_size)
其余不常使用的细节请参考文档:torch.nn.RNN