循环神经网络(RNN、LSTM、GRU)---------Pytorch

# 处理不定长输入
# 时间序列任务(输入数据具有前后关系)
1、RNN
    # input_size:输入x的特征数量
    # hidden_size:隐藏层的特征数量
    # num_layers:RNN层数
    # nonlinearity:默认tanh,非线性函数使用tanh还是relu
    # bias:默认True,是否使用偏置
    # batch_first:默认False[即(序列长度seq,批大小batch,特征维度feature)];若True则(batch,seq,feature)
    # dropout:缺省值为0,表示不使用dropout层;若为1,则除最后一层外,其它层的输出都会加dropout层
    # bidirectional:默认False;True表示使用双向rnn
    self.rnn = torch.nn.RNN(input_size,hidden_size,num_layers,
        nonlinearity='tanh',bias=True,batch_first=False,dropout=0,bidirectional=False)
    # output,h_n = self.rnn(X)

2、LSTM
    self.lstm = torch.nn.LSTM(input_size,hidden_size,num_layers)
    # output,h_n = self.lstm(X)
    # output,(h_n,h_c) = self.lstm(X)

3、GRU
    self.gru = torch.nn.GRUCell(input_size,hidden_size,num_layers)
    # output,h_n = self.gru(X)

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值