Pytorch 对比TensorFlow 学习:Day 17-18: 循环神经网络(RNN)和LSTM

Day 17-18: 循环神经网络(RNN)和LSTM

在这两天的学习中,我专注于理解循环神经网络(RNN)和长短期记忆网络(LSTM)的基本概念,并学习了它们在处理序列数据时的应用。

1.RNN和LSTM基础:

RNN:了解了RNN是如何处理序列数据的,特别是它的循环结构可以用于处理时间序列或连续数据。
LSTM:学习了LSTM作为RNN的一种改进,它通过引入遗忘门、输入门和输出门解决了RNN的长期依赖问题。

2.实践应用:

使用这些概念来处理一个简单的序列数据任务,例如时间序列预测或文本数据处理。
构建一个包含RNN或LSTM层的神经网络模型。

3.PyTorch和TensorFlow实现:

在PyTorch中,使用nn.RNN或nn.LSTM来实现这些网络。
在TensorFlow中,使用Keras的SimpleRNN或LSTM层。

PyTorch代码示例:

import torch
import torch.nn as nn
import torch.optim as optim
class SimpleLSTM(nn.Module):#定义一个简单的LSTM模型
def init(self, input_size, hidden_size, num_classes):
super(SimpleLSTM, self).init()
self.lstm = nn.LSTM(input_size, hidden_size, batch_first=True)
self.fc = nn.Linear(hidden_size, num_classes)
def forward(self, x):
# 初始隐藏状态和细胞状态
h0 = torch.zeros(1, x.size(0), hidden_size)
c0 = torch.zeros(1, x.size(0), hidden_size)
# 前向传播
out, _ = self.lstm(x, (h0, c0))
out = out[:, -1, :]
out = self.fc(out)
return out
#实例化模型、定义损失函数和优化器
input_size = 10 # 输入数据的特征维度
hidden_size = 20 # 隐藏层特征维度
num_classes = 2 # 输出类别数
model = SimpleLSTM(input_size, hidden_size, num_classes)
criterion = nn.CrossEntropyLoss()
optimizer = optim.Adam(model.parameters(), lr=0.001)

TensorFlow代码示例
import tensorflow as tf
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import LSTM, Dense

#定义一个简单的LSTM模型
model = Sequential([
LSTM(20, input_shape=(None, 10)), # 输入序列的长度任意,特征维度为10
Dense(2, activation=‘softmax’) # 假设是二分类问题
])

#编译模型
model.compile(optimizer=‘adam’,
loss=‘sparse_categorical_crossentropy’,
metrics=[‘accuracy’])

#模型概要
model.summary()

  • 9
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值