rnn训练随机问题

问题来源:每次训练的结果都会有差别;每次训练调用ai_lstm_prob.py文档

解决方案1:

multi_layer_cell=tf.nn.rnn_cell.DropoutWrapper(multi_layer_cell,output_keep_prob=keep_prob,seed=1234)
训练结果仍然不同

解决方案2:

在训练文档(ai_lstm_prob.py)的开头处中加入
from numpy.random import seed
seed(1)
from tensorflow import set_random_seed
set_random_seed(2)
训练结果仍然不同;

结论:还存在其他的随机源,比如说GPU训练产生的随机性,如下解释:

使用GPU产生的随机性

以上所有示例都假设代码是在一个CPU上运行的。

这种情况也是有可能的,就是当使用GPU训练模型时,可能后端设置的是使用一套复杂的GPU库,这些库中有些可能会引入他们自己的随机源,你可能会或者不会考虑到这个。

例如,有证据显示如果你在堆栈中使用了 Nvidia cuDNN,这可能引入额外的随机源( introduce additional sources of randomness),并且使结果不能准确再现

 


 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
下面是一个使用PyTorch实现RNN训练的代码样例,包括数据处理、模型定义、训练和测试四个部分: ```python import torch import torch.nn as nn import numpy as np # 数据处理部分 input_size = 1 output_size = 1 sequence_length = 10 data_size = 1000 inputs = np.random.randn(data_size, sequence_length, input_size) targets = np.random.randn(data_size, output_size) inputs = torch.from_numpy(inputs).float() targets = torch.from_numpy(targets).float() # 模型定义部分 class RNN(nn.Module): def __init__(self, input_size, hidden_size, output_size): super(RNN, self).__init__() self.hidden_size = hidden_size self.rnn = nn.RNN(input_size, hidden_size, batch_first=True) self.linear = nn.Linear(hidden_size, output_size) def forward(self, x): h0 = torch.zeros(1, x.size(0), self.hidden_size) out, hn = self.rnn(x, h0) out = self.linear(out[:, -1, :]) return out # 训练部分 num_epochs = 100 learning_rate = 0.01 model = RNN(input_size, hidden_size=16, output_size=output_size) criterion = nn.MSELoss() optimizer = torch.optim.Adam(model.parameters(), lr=learning_rate) for epoch in range(num_epochs): outputs = model(inputs) loss = criterion(outputs, targets) optimizer.zero_grad() loss.backward() optimizer.step() if (epoch+1) % 10 == 0: print("Epoch [{}/{}], Loss: {:.4f}".format(epoch+1, num_epochs, loss.item())) # 测试部分 with torch.no_grad(): inputs_test = np.random.randn(1, sequence_length, input_size) inputs_test = torch.from_numpy(inputs_test).float() outputs_test = model(inputs_test) print("Input: {}".format(inputs_test)) print("Output: {}".format(outputs_test)) ``` 这个代码样例实现了一个RNN模型,用于预测一个长度为10的时间序列的最后一个值。在训练部分中,使用MSE(Mean Squared Error)作为损失函数,使用Adam优化算法进行参数更新。在测试部分中,随机生成一个长度为10的时间序列的输入数据,将其输入到训练好的模型中,得到模型的输出结果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值