【动手学习pytorch笔记】27.双向循环神经网络

双向循环神经网络

在这里插入图片描述

两个隐藏状态,分别计算输出,然后concat起来最后丢到输出层

虽然原理上是这样,但实际实现上:

  1. 正常和RNN同样的操作得到H1
  2. 我们把输入反过来在丢进网络就好了,得到的输出也反过来H2
  3. 把H1和H2 concat起来,得到最后的输出。
import torch
from torch import nn
from d2l import torch as d2l

# 加载数据
batch_size, num_steps, device = 32, 35, d2l.try_gpu()
train_iter, vocab = d2l.load_data_time_machine(batch_size, num_steps)
# 通过设置“bidirective=True”来定义双向LSTM模型
vocab_size, num_hiddens, num_layers = len(vocab), 256, 2
num_inputs = vocab_size
lstm_layer = nn.LSTM(num_inputs, num_hiddens, num_layers, bidirectional=True)
model = d2l.RNNModel(lstm_layer, len(vocab))
model = model.to(device)
# 训练模型
num_epochs, lr = 500, 1
d2l.train_ch8(model, train_iter, vocab, lr, num_epochs, device)

bidirectional=True仅需着一个参数,就能得到双向的网络。

perplexity 1.1, 50185.7 tokens/sec on cuda:0
time travellerererererererererererererererererererererererererer
travellerererererererererererererererererererererererererer

但实际我们看到的效果是这样的,这其实是一个错误的例子,虽然训练时是双向的,但因为我们推理阶段的任务是预测下一个词,而推理阶段是看不见后面的输入的,所以效果非常差。

所以双向RNN并不是适用于所有任务的,只有做机器翻译等任务时,才使用双向RNN。

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PyTorch是一个开源的机器学习框架,它提供了丰富的工具和库,用于构建和训练神经网络模型。双向循环神经网络(Bidirectional Recurrent Neural Network,BiRNN)是一种常用的循环神经网络(Recurrent Neural Network,RNN)变体,它能够同时考虑过去和未来的上下文信息。 在PyTorch中,可以使用torch.nn模块来构建双向循环神经网络。首先,需要定义一个RNN模型,并指定输入维度、隐藏维度和输出维度等参数。然后,可以通过torch.nn.RNN类来创建一个RNN,并将其作为模型的一部分。 接下来,可以使用torch.nn.utils.rnn.pad_sequence函数将输入序列进行填充,使其长度一致。然后,可以将填充后的序列作为输入传递给RNN。为了实现双向性,可以使用torch.nn.RNN类的bidirectional参数设置为True。 最后,可以通过调用模型的forward方法来进行前向传播计算。双向循环神经网络将分别计算正向和反向的隐藏状态,并将它们连接起来作为最终的输出。 下面是一个简单的示例代码,展示了如何在PyTorch中构建和训练一个双向循环神经网络: ```python import torch import torch.nn as nn # 定义双向循环神经网络模型 class BiRNN(nn.Module): def __init__(self, input_size, hidden_size, output_size): super(BiRNN, self).__init__() self.hidden_size = hidden_size self.rnn = nn.RNN(input_size, hidden_size, bidirectional=True) self.fc = nn.Linear(hidden_size * 2, output_size) # *2是因为双向RNN有两个方向的隐藏状态 def forward(self, input_seq): output, hidden = self.rnn(input_seq) hidden_cat = torch.cat((hidden[-2, :, :], hidden[-1, :, :]), dim=1) # 将正向和反向的隐藏状态连接起来 output = self.fc(hidden_cat) return output # 定义输入序列和标签 input_seq = torch.randn(5, 3, 10) # 输入序列的维度为(序列长度, batch大小, 输入维度) labels = torch.tensor([1, 0, 1, 0, 1]) # 创建双向循环神经网络模型 model = BiRNN(input_size=10, hidden_size=20, output_size=2) # 定义损失函数和优化器 criterion = nn.CrossEntropyLoss() optimizer = torch.optim.SGD(model.parameters(), lr=0.1) # 训练模型 for epoch in range(100): optimizer.zero_grad() output = model(input_seq) loss = criterion(output, labels) loss.backward() optimizer.step() # 使用训练好的模型进行预测 test_input = torch.randn(1, 3, 10) prediction = model(test_input) ``` 这是一个简单的双向循环神经网络的示例,你可以根据自己的需求进行修改和扩展。希望对你有帮助!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值