用torch.nn.Sequential()搭建神经网络模型

原始定义方式与 nn.Sequential 两种定义方式实例:

可以看到使用torch.nn.Sequential()搭建神经网络模型非常的方便,少写很多的code

import torch
import torch.nn as nn


# -------------------------方式一:传统网络定义方式--------------------------------
class Net(nn.Module):
    def __init__(self, in_dim, n_hidden_1, n_hidden_2, out_dim):
        super(Net, self).__init__()

        self.linear1 = nn.Linear(in_dim, n_hidden_1)
        self.Relu1   = nn.ReLU(True)
        self.linear2 = nn.Linear(n_hidden_1, n_hidden_2)
        self.Relu2   = nn.ReLU(True)
        self.linear3 = nn.Linear(n_hidden_2, out_dim)

    def forward(self, x):

        x = self.linear1(x)
        x = self.Relu1(x)
        x = self.linear2(x)
        x = self.Relu2(x)
        x = self.linear3(x)

        return x

# -------------------------方式二:使用nn.Sequential定义网络------------------------
class Net(nn.Module):
    def __init__(self, in_dim, n_hidden_1, n_hidden_2, out_dim):
        super(Net, self).__init__()

        self.layer = nn.Sequential(
            nn.Linear(in_dim, n_hidden_1),      # (18,15)
            nn.ReLU(True),
            nn.Linear(n_hidden_1, n_hidden_2),  # (15,10)
            nn.ReLU(True),
            nn.Linear(n_hidden_2, out_dim)      # (10,1)
             )

    def forward(self, x):
        x = self.layer(x)
        return x



# instantiation
net = Net(18, 15, 10, 1)

# create random input to model
input = torch.randn(30, 18)

# output the predicted value
predict = net(input)

print(predict.size())
print(net)


torch.nn.Sequential是一个Sequential容器,模块将按照构造函数中传递的顺序添加到模块中。通俗的话说,就是根据自己的需求,把不同的函数组合成一个(小的)模块使用或者把组合的模块添加到自己的网络中

一、第一种方式(可以配合一些条件判断语句动态添加)

  • 模板——torch.nn.Sequential()的一个对象.add_module(name, module)。
  • name:某层次的名字;module:需要添加的子模块,如卷积、激活函数等等。
  • 添加子模块到当前模块中。
  • 可以通过 name 属性来访问添加的子模块。
  • 输出后每一层的名字:不是采用默认的命名方式(按序号 0,1,2,3…),而是按照name属性命名!!
import torch.nn as nn

model = nn.Sequential()

model.add_module("conv1", nn.Conv2d(1, 20, 5))
model.add_module('relu1', nn.ReLU())
model.add_module('conv2', nn.Conv2d(20, 64, 5))
model.add_module('relu2', nn.ReLU())

# 输出
Sequential(
  (conv1): Conv2d(1, 20, kernel_size=(5, 5), stride=(1, 1))
  (relu1): ReLU()
  (conv2): Conv2d(20, 64, kernel_size=(5, 5), stride=(1, 1))
  (relu2): ReLU()
)

注意!!!nn.module也有add_module()对象

# 被添加的module可以通过 name 属性来获取。

import torch.nn as nn
class Model(nn.Module):
    def __init__(self):
        super(Model, self).__init__()
        self.add_module("conv", nn.Conv2d(10, 20, 4))
        # self.conv = nn.Conv2d(10, 20, 4) 和上面这个增加module的方式等价
model = Model()
print(model.conv) # 通过name属性访问添加的子模块
print(model)

# 输出:注意子模块的命名方式
Conv2d(10, 20, kernel_size=(4, 4), stride=(1, 1))
Model(
  (conv): Conv2d(10, 20, kernel_size=(4, 4), stride=(1, 1))
)

二、第二种方式

  • 模板——nn.Sequential(*module)
  • 输出的每一层的名字:采用默认的命名方式(按序号 0,1,2,3…)
import torch.nn as nn

model = nn.Sequential(
          nn.Conv2d(1,20,5),
          nn.ReLU(),
          nn.Conv2d(20,64,5),
          nn.ReLU()
        )
print(model)     

# 输出:注意命名方式
Sequential(
  (0): Conv2d(1, 20, kernel_size=(5, 5), stride=(1, 1))
  (1): ReLU()
  (2): Conv2d(20, 64, kernel_size=(5, 5), stride=(1, 1))
  (3): ReLU()
)
  

三、第三种方式

  • 模板——nn.Sequential(OrderedDict([*(name, module)]))
  • 输出后每一层的名字:不是采用默认的命名方式(按序号 0,1,2,3…),而是按照name属性命名!!
import collections
import torch.nn as nn

model = nn.Sequential(collections.OrderedDict([('conv1', nn.Conv2d(1, 20, 5)), ('relu1', nn.ReLU()),
                                               ('conv2', nn.Conv2d(20, 64, 5)),
                                               ('relu2', nn.ReLU())
                                               ]))
print(model)

# 输出:注意子模块命名方式
Sequential(
  (conv1): Conv2d(1, 20, kernel_size=(5, 5), stride=(1, 1))
  (relu1): ReLU()
  (conv2): Conv2d(20, 64, kernel_size=(5, 5), stride=(1, 1))
  (relu2): ReLU()
)

Pytorch系列1: torch.nn.Sequential()讲解_xddwz的博客-CSDN博客_torch.nn.sequential

【深度学习笔记】用torch.nn.Sequential()搭建神经网络模型_Murphy.AI 的文章-CSDN博客

  • 23
    点赞
  • 101
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 5
    评论
torch.nnPyTorch深度学习框架中一个非常重要的模块,它提供了各种各样的神经网络层和损失函数,可以方便地搭建各种深度学习模型。在使用torch.nn之前,需要先导入torch.nn模块。 下面是一个简单的示例,展示如何使用torch.nn来构建一个简单的全连接神经网络: ```python import torch import torch.nn as nn # 定义一个全连接神经网络 class MyNet(nn.Module): def __init__(self): super(MyNet, self).__init__() self.fc1 = nn.Linear(10, 20) self.fc2 = nn.Linear(20, 2) def forward(self, x): x = self.fc1(x) x = nn.functional.relu(x) x = self.fc2(x) return x # 创建网络实例 net = MyNet() # 定义输入 input_data = torch.randn(1, 10) # 前向传播 output = net(input_data) # 输出结果 print(output) ``` 在这个例子中,我们定义了一个名为MyNet的类,它继承自nn.Module类。在类的构造函数中,我们定义了两个全连接层,分别有输入和输出的大小分别为(10, 20)和(20, 2)。在forward函数中,我们定义了网络的前向传播过程,其中使用了nn.functional.relu函数作为激活函数。最后,我们创建了一个MyNet的实例,并且将一个大小为(1, 10)的输入传递给它进行前向传播,输出结果大小为(1, 2)。 在使用torch.nn时,还需要注意以下几点: 1. 所有的神经网络层都必须继承自nn.Module类,并实现forward函数。 2. 可以在forward函数中使用nn.functional中的函数作为激活函数,损失函数等。 3. 可以使用nn.Sequential类来简化模型搭建过程。 4. 可以使用nn.ModuleList、nn.ModuleDict等容器类来管理网络中的神经网络层。 总之,torch.nnPyTorch深度学习框架中非常重要的模块,它提供了各种各样的神经网络层和损失函数,方便我们构建各种深度学习模型
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

马鹏森

太谢谢了

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值