pytorch LSTM的dropout参数

pytorch的LSTM及RNN的dropout不会对每个time step进行dropout,只对一层的输出设置了dropout。
在新版本的pytorch中,对于1层的lstm,dropout参数无效了,就说明对每个时间步是不dropout的。

源码中,如果指定了drop!=0的话,每一层的LSTM输出cat后又加的dropout,最后一层的输出没有加dropout。如果模型有三层LSTM,则第一层、第二层LSTM的输出后加入了dropout,第三层的输出后没有加dropout。当然如果模型只有一层的LSTM的话,它的输出后是没有加入dropout的。

for i in range(num_layers):
	all_output = []
	for j, inner in enumerate(inners):
	    l = i * num_directions + j
	
	    hy, output = inner(input, hidden[l], weight[l], batch_sizes)
	    next_hidden.append(hy)
	    all_output.append(output)
	
	input = torch.cat(all_output, input.dim() - 1)
	
	if dropout != 0 and i < num_layers - 1:
	    input = F.dropout(input, p=dropout, training=train, inplace=False)

https://discuss.pytorch.org/t/dropout-in-lstm/7784

  • 0
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值