nn.Sequential与tensorflow的Sequential对比

nn.Sequential() 是 PyTorch 深度学习框架中的一个类,用于按顺序容器化模块。nn.Sequential 是一个有序的容器,它包含多个网络层,数据会按照在构造函数中传入顺序依次通过每个层。在 nn.Sequential 中,不需要定义 forward 方法,因为当你调用它时,会按照顺序调用每个子模块。

import torch  
import torch.nn as nn  
  
# 创建一个简单的神经网络  
model = nn.Sequential(  
    nn.Linear(784, 128),  # 输入层到隐藏层,784个输入节点,128个输出节点  
    nn.ReLU(),           # 激活函数  
    nn.Linear(128, 10)   # 隐藏层到输出层,128个输入节点,10个输出节点  
)  
  
# 创建一个随机的输入张量  
input_tensor = torch.randn(1, 784)  
  
# 将输入张量传递给模型  
output_tensor = model(input_tensor)  
  
print(output_tensor.size())  # 输出应为 torch.Size([1, 10])
import tensorflow as tf  
from tensorflow.keras.datasets import mnist  
from tensorflow.keras.models import Sequential  
from tensorflow.keras.layers import Dense, Flatten  
from tensorflow.keras.losses import SparseCategoricalCrossentropy  
from tensorflow.keras.optimizers import Adam  
  
# 加载MNIST数据集  
(train_images, train_labels), (test_images, test_labels) = mnist.load_data()  
  
# 归一化像素值到0-1之间  
train_images = train_images / 255.0  
test_images = test_images / 255.0  
  
# 将图像的形状展平,以便可以输入到神经网络中  
train_images = train_images[..., tf.newaxis]  
test_images = test_images[..., tf.newaxis]  
  
# 创建Sequential模型  
model = Sequential([  
    Flatten(input_shape=(28, 28, 1)),  # 将28x28像素的图像展平为一维张量  
    Dense(128, activation='relu'),      # 全连接层,128个神经元,使用ReLU激活函数  
    Dense(10)                           # 输出层,10个神经元(对应10个数字类别)  
])  
  
# 编译模型  
model.compile(optimizer=Adam(),  
              loss=SparseCategoricalCrossentropy(from_logits=True),  
              metrics=['accuracy'])  
  
# 训练模型  
model.fit(train_images, train_labels, epochs=5)  
  
# 评估模型  
test_loss, test_acc = model.evaluate(test_images,  test_labels, verbose=2)  
  
print('\nTest accuracy:', test_acc)

self.conv 通常指的是类的一个属性,这个属性通常是一个卷积层(Convolutional Layer)

import torch  
import torch.nn as nn  
import torch.nn.functional as F  
  
class SimpleCNN(nn.Module):  
    def __init__(self):  
        super(SimpleCNN, self).__init__()  
        # 定义一个卷积层,输入通道数为3(例如RGB图像),输出通道数为16,卷积核大小为3x3  
        self.conv = nn.Conv2d(3, 16, kernel_size=3, stride=1, padding=1)  
        # 可以添加其他层...  
  
    def forward(self, x):  
        # 在前向传播中使用卷积层  
        x = self.conv(x)  
        # 可以添加其他操作,例如激活函数、池化等...  
        x = F.relu(x)  
        # 返回处理后的输出  
        return x  
  
# 创建模型实例  
model = SimpleCNN()  
  
# 假设我们有一个输入张量 input_tensor,其形状为 [batch_size, 3, height, width]  
# 我们可以将其传递给模型进行前向传播  
output_tensor = model(input_tensor)
  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

茶冻茶茶

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值