pytorch神经网络学习笔记00----pytorch搭网络的模板格式

该代码示例展示了一个基于PyTorch构建的简单卷积神经网络(ConvNet),包含两个卷积层,每个后面跟着ReLU激活和最大池化层,接着是两个全连接层。forward函数定义了网络的计算流程,从卷积层到全连接层,最终输出。
摘要由CSDN通过智能技术生成

Pytorch 写网络,经典格式:

import torch
import torch.nn as nn
import torch.nn.functional as F

class ConvNet(nn.Module):
    def __init__(self):
        super(ConvNet, self).__init__()
        # 定义卷积层
        self.conv1 = nn.Conv2d(in_channels=3, out_channels=32, kernel_size=3)
        self.pool = nn.MaxPool2d(kernel_size=2, stride=2)
        self.conv2 = nn.Conv2d(32, 64, 3)
        
        # 定义全连接层
        self.fc1 = nn.Linear(64 * 6 * 6, 512)
        self.fc2 = nn.Linear(512, 10)
        
    def forward(self, x):
        # 卷积层
        x = self.conv1(x)
        x = F.relu(x)
        x = self.pool(x)
        x = self.conv2(x)
        x = F.relu(x)
        x = self.pool(x)
        
        # 压平
        x = x.view(-1, 64 * 6 * 6)
        
        # 全连接层
        x = self.fc1(x)
        x = F.relu(x)
        x = self.fc2(x)
        
        return x

上面这个模型有两个卷积层和两个全连接层。其中,卷积层使用 nn.Conv2d() 函数,全连接层使用 nn.Linear() 函数。forward() 函数是执行模型运算的核心。在 forward() 函数中,我们首先执行卷积层,并对输出进行 ReLU 激活,然后对输出进行池化。接下来,我们再次执行卷积层,并再次对输出进行 ReLU 激活和池化。最后,我们将张量压缩成扁平形式,并将其输入到两个全连接层中。
def init()部分并不定义网络的执行顺序它只是把要用到的网络和一些函数、变量、参数声明在里面
定义网络执行顺序的是下面的forward。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值