Pytorch教程入门系列8----模型搭建

系列文章目录



前言

今天我们来搭建一个简单的神经网络,看看各层是如何排布的。这有利于我们去理解将一个网络如何落实到Pytorch中。


模型自定义

1、嵌套型模型

1.1声明一个具有Conv,BN、ReLU的复合模型

为什么声明它?因为我想声明,记住是先有的想法,才去实现模型。我就想组合这三者,所以用如下代码去实现。
注意:你想组合10个Conv,50个BN,78个R就尽情的用代码去组合去实现,我们本节目的就是学会用Pytorch组我们的想法!!!

代码如下(示例):

class C8L(nn.Module):									#继承module类
    def __init__(self,in_dim, out_dim, kernel):			#重载init方法
        super(CBL, self).__init__()						#调用父类init初始化
        self.conv = nn.Sequential(         				# 卷积基本单元
            nn.Conv2d(in_dim, out_dim,kernel,bias=False),# 卷积
            nn.BatchNorm2d(out_dim),					# BN
            nn.ReLU(inplace=True),                  	# relu 
        )  										
    def forward(self, x):
        x = self.conv1(x)
        output = self.out(x)
        return output


1.2.嵌套网络

在上面网络基础上再套一层壳子

代码如下(示例):

    import torch.nn as nn
    class ResUnit(nn.Module):
        def __init__(self, in_dim, out_dim):
          	super(ResUnit, self).__init__()
          	#嵌套CBL声明1×1、3×3这2个卷积层
           	self.layer1_1 = CBL(in_dim, out_dim,1)
           	self.add_module("layer3_3", CBL(in_dim, out_dim, 3))
          	self.relu = nn.ReLU(inplace=True)

        def  forward(self, x):
          	identity = x #映射保存一份原始数据
          	# 网路堆叠层是由1×1、3×3这2个卷积组成的,中间包含BN层
          	x = self.layer1_1(x)
          	out = self.layer3_3(x)
          	# 将identity(恒等映射)与网络堆叠层输出进行相加,并经过ReLU后输出
          	out += identity
          	out = self.relu(out)
          	return out

残差网络

2、堆叠排列型模型

代码如下(示例):

    import torch
    from torch import nn
    modules = nn.Sequential() #模型顺序库 
	models.add_module("conv1", nn.Conv2d(indim, outdim, kernel))
	models.add_module('relu1', nn.ReLU())
	models.add_module('conv2', nn.Conv2d(indim, outdim, kernel))
	models.add_module('relu2', nn.ReLU())

注意:网络必须是module或用nn.ModuleList封装类型

注意:成员变量类型是Module的子类,pytorch才会注册这个模块,模型中才能被加入,否则就不会。

self.add_module(‘layer_{}’.format(i),layer)将nn.Linear声明为 module,Linear模块才被识别

class NeuralNetwork(nn.Module):
    def __init__(self, layer_num):
        super(NeuralNetwork, self).__init__()
      # self.layers = nn.ModuleList([nn.Linear(608,608) for _ in range(layer_num)])封装为module或者for迭代为module
        self.layers = [nn.Linear(608,608) for _ in range(layer_num)]
        for i,layer in enumerate(self.layers):
            self.add_module('layer_{}'.format(i),layer) 
        self.linear_relu_stack = nn.Sequential(
            nn.Linear(608, 40),
            nn.ReLU()
        )

    def forward(self, x):
        for layer in layers:
            x = layer(x)
        logits = self.linear_relu_stack(x)
        return logits

总结

以上就是今天要讲的内容,本文简单介绍了模型搭建的基本操作,多种方式都可实现网络的添加与构建。最重要的一点是,一定要清楚的指导自己想搭建的网络架构是什么样的,再用Pytorch来实现。

  • 2
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
《深度学习pytorch极简入门》是一本PDF教程,旨在帮助初学者快速入门PyTorch深度学习框架。该教程以简洁清晰的语言介绍了PyTorch的基本概念和使用方法,帮助读者了解深度学习的基本原理和PyTorch框架的核心功能。 教程的内容主要分为四个部分。首先,它介绍了深度学习的基本概念和原理,例如神经网络、前向传播和反向传播算法等。其次,教程详细介绍了PyTorch框架的安装和环境搭建,包括如何安装PyTorch和相关的依赖库。然后,教程演示了如何使用PyTorch进行数据加载和预处理,以及如何构建和训练一个简单的神经网络模型。最后,教程还介绍了如何使用PyTorch进行模型评估和保存。 这本教程的特点在于简明扼要。它用简单易懂的语言解释了复杂的概念和原理,避免了过多的数学推导和技术术语的使用。此外,教程通过一系列的例子和实践任务,让读者可以亲自动手实践,并逐步建立起对PyTorch的理解和掌握能力。 总结来说,《深度学习pytorch极简入门》是一本适合初学者入门PyTorch教程。它以简洁明了的方式介绍了PyTorch的基本概念和使用方法,并通过实践任务帮助读者逐步掌握深度学习和PyTorch框架的基本原理和技巧。无论是对于想要了解深度学习的初学者还是对于已经熟悉其他深度学习框架的人来说,这本教程都是一个不错的选择。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

CV_Today

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值