Pytorch 写网络,经典格式:
import torch
import torch.nn as nn
import torch.nn.functional as F
class ConvNet(nn.Module):
def __init__(self):
super(ConvNet, self).__init__()
# 定义卷积层
self.conv1 = nn.Conv2d(in_channels=3, out_channels=32, kernel_size=3)
self.pool = nn.MaxPool2d(kernel_size=2, stride=2)
self.conv2 = nn.Conv2d(32, 64, 3)
# 定义全连接层
self.fc1 = nn.Linear(64 * 6 * 6, 512)
self.fc2 = nn.Linear(512, 10)
def forward(self, x):
# 卷积层
x = self.conv1(x)
x = F.relu(x)
x = self.pool(x)
x = self.conv2(x)
x = F.relu(x)
x = self.pool(x)
# 压平
x = x.view(-1, 64 * 6 * 6)
# 全连接层
x = self.fc1(x)
x = F.relu(x)
x = self.fc2(x)
return x
上面这个模型有两个卷积层和两个全连接层。其中,卷积层使用 nn.Conv2d() 函数,全连接层使用 nn.Linear() 函数。forward() 函数是执行模型运算的核心。在 forward() 函数中,我们首先执行卷积层,并对输出进行 ReLU 激活,然后对输出进行池化。接下来,我们再次执行卷积层,并再次对输出进行 ReLU 激活和池化。最后,我们将张量压缩成扁平形式,并将其输入到两个全连接层中。
def init()部分并不定义网络的执行顺序它只是把要用到的网络和一些函数、变量、参数声明在里面
定义网络执行顺序的是下面的forward。