《动手做科研 》| 04. 科研入门必备的PyTorch 基础知识

地址链接:《动手做科研》04. PyTorch 基础知识

导读: 什么是PyTorch?我们如何用PyTorch快速实现一个完整的神经网络训练流程?

首先阅读官方 Pytorch 教程,然后将完成有关张量 (Tensor)、Autograd、神经网络和分类器训练/评估的练习。有些问题会要求实现几行代码,而其他问题会要求猜测操作的输出是什么,或者识别代码的问题。强烈建议您在参考解决方案中查找问题之前先亲自尝试这些问题。

注意:参考答案在./lecture4.ipynb上

本教程目标:

  1. 在 PyTorch 中执行张量运算。
  2. 了解 Autograd 背景下神经网络的后向和前向传递。
  3. 检测 PyTorch 训练代码中的常见问题。

本教程内容:

0. 快速开始

方法一:colab已经自动帮我们安装好了torch库,我们可以直接使用。建议可以直接先使用在线的编译器,先快速理解知识点。

在这里插入图片描述

方法二:在vscode/pycharm上通过pip install 来安装torch,torchvision

1. Tensor

我们将从最基本的张量开始。首先,浏览官方张量教程这里

张量是一种特殊的数据结构,与数组和矩阵非常相似。在PyTorch中,我们使用张量对模型的输入和输出以及模型的参数进行编码。张量与NumPy的 ndarray 类似,不同之处在于张量可以在GPU或其他专用硬件上运行以加速计算。

如果您熟悉 ndarrays,那么您就会熟悉Tensor API。如果没有,请按照此下面的问题进行操作。最好可以不看答案操作一遍,先思考一下,再去搜索一下,最后比对一下正确的操作,这样子效果是最好的。

  1. 将二维列表 [[5,3], [0,9]] 转换为一个张量
  2. 使用区间 [0, 1) 上均匀分布的随机数创建形状 (5, 4) 的张量t
  3. 找出张量t所在的设备及其数据类型。
  4. 创建形状 (4,4)(4,4) 的两个随机张量,分别称为uv。将它们连接起来形成形状为 (8, 4) 的张量。
  5. 连接 uv 以创建形状 (2, 4, 4) 的张量。
  6. 连接 uv 形成一个张量,称为形状 (4, 4, 2)w
  7. 索引 w 位于 3, 3, 0,将该元素称为e
  8. 会在 uv 的哪一个中找到 w?并核实。
  9. 创建一个形状为 (4, 3) 的全为 1 的张量 a。对a进行元素级别的自乘操作。
  10. a添加一个额外的维度(新的第 0 维度)。
  11. 执行 a 与转置矩阵的乘法。
  12. a.mul(a) 会产生什么结果?
  13. a.matmul(a.T) 会产生什么结果?
  14. a.mul(a.T) 的结果是什么?
  15. 猜猜下面会打印什么。验证一下
t = torch.ones(5)
n = t.numpy()
n[0] = 2
print(t)
  1. 下面会打印什么?
t = torch.tensor([2., 1., 1., 1., 1.])
t.add(2)
t.add_(1)
print(n)

2. Autograd 和神经网络

接下来,我们学习自动梯度教程和神经网络教程。

神经网络(NN) 是对某些输入数据执行的嵌套函数的集合。这些函数由参数(由权重和偏差组成)定义,这些参数在PyTorch中存储在张量中。可以使用 torch.nn 包构建神经网络。

训练神经网络分两步进行:

  • 前向传播:在前向传播中,神经网络对正确的输出做出最佳猜测,它通过每个函数运行输入数据来进行猜测。
  • 反向传播:在反向传播中,神经网络根据其猜测的误差按比例调整其参数。它通过从输出向后遍历、收集误差相对于函数参数(梯度)的导数并使用梯度下降来优化参数来实现这一点。

神经网络的典型训练过程如下:

  • 定义具有一些可学习参数(或权重)的神经网络
  • 迭代输入数据集
  • 通过网络处理输入
  • 计算损失(输出距离正确还有多远)
  • 将梯度传播回网络参数
  • 更新网络的权重,通常使用简单的更新规则:权重=权重-学习率梯度

有了这些教程,我们就可以尝试以下练习了!假设我们有以下起始代码,将下面这段代码复制到你的编辑器中:

import torch
from torchvision.models import resnet18, ResNet18_Weights
model = resnet18(weights=ResNet18_Weights.DEFAULT)
data = torch.rand(1, 3, 64, 64)
labels = torch.rand(1, 1000)
  1. 使用数据对模型进行前向传递并将其保存为 preds

  2. preds 的形状应该是什么?验证你的猜测。

  3. resnet18conv1 属性的权重参数保存为 w。打印 w 因为我们稍后需要它(请注意,我的 w 不会与你的相同)。

  4. wgrad 属性应该是什么?请验证。

  5. 创建一个交叉熵损失对象,并用它来使用 labelspreds 计算损失,保存为 loss。打印 loss,因为我们稍后需要它。

  6. 打印最后一次产生 loss 损失的数学运算。

  7. 执行反向传播。

  8. w 应该改变吗?检查 #3 的输出。

  9. wgrad 属性会与 #4 不同吗?并验证。

  10. lossgrad 属性应该返回什么?验证一下。

  11. lossrequires_grad 属性应该是什么?验证一下。

  12. labelsrequires_grad 属性应该是什么?验证一下。

  13. 如果你再次执行反向传播会发生什么?

  14. 创建一个学习率 (lr=1e-2) 和动量 (momentum=0.9) 的 SGD 优化器对象,并执行一步。

  15. w 是否应该改变?检查第3题的输出。

  16. loss 是否应该改变?检查第5题的输出。

  17. 将所有可训练参数的梯度清零。

  18. wgrad 属性应该是什么?验证一下。

  19. 在不运行的情况下,判断以下代码是否会成功执行。

data1 = torch.zeros(1, 3, 64, 64)
data2 = torch.ones(1, 3, 64, 64)

predictions1 = model(data1)
predictions2 = model(data2)
l = torch.nn.CrossEntropyLoss()
loss1 = l(predictions1, labels)
loss2 = l(predictions2, labels)

loss1.backward()
loss2.backward()
  1. 判断以下代码是否会成功执行。
data1 = torch.zeros(1, 3, 64, 64)
data2 = torch.ones(1, 3, 64, 64)

predictions1 = model(data1)
predictions2 = model(data1)

l = torch.nn.CrossEntropyLoss()
loss1 = l(predictions1, labels)
loss2 = l(predictions2, labels)

loss1.backward()
loss2.backward()
  1. 判断以下代码是否会成功执行。
data1 = torch.zeros(1, 3, 64, 64)
data2 = torch.ones(1, 3, 64, 64)

predictions1 = model(data1)
predictions2 = model(data2)

l = torch.nn.CrossEntropyLoss()
loss1 = l(predictions1, labels) # 注意是predictions1
loss2 = l(predictions1, labels) # 注意是predictions1

loss1.backward()
loss2.backward()
  1. 对于不能执行的代码,你如何修改其中一个 .backward 行使其工作?

  2. 以下代码的输出是什么?

predictions1 = model(data)
l = torch.nn.CrossEntropyLoss()
loss1 = l(predictions1, labels)
loss1.backward(retain_graph=True)

w = model.conv1.weight.grad[0][0][0][0]
a = w.item()

loss1.backward()
b = w.item()

model.zero_grad()
c = w.item()

print(b//a,c)
  1. 以下代码的输出是什么?
predictions1 = model(data)
l = torch.nn.CrossEntropyLoss()
loss1 = l(predictions1, labels)
loss1.backward(retain_graph=True)

a = model.conv1.weight.grad[0][0][0][0]

loss1.backward()
b = model.conv1.weight.grad[0][0][0][0]

model.zero_grad()
c = model.conv1.weight.grad[0][0][0][0]

print(b//a,c)
  1. 以下代码有什么问题?
learning_rate = 0.01
for f in net.parameters():
    f.data.sub(f.grad.data * learning_rate)
  1. 按正确的顺序排列训练循环的以下步骤(有多种正确答案,但你在教程中会看到一种典型的设置):以下代码的输出是什么?

optimizer.step(), optimizer.zero_grad(), loss.backward(), output = net(input), loss = criterion(output, target)

  1. 以下代码的输出是什么?
net = resnet18(weights=ResNet18_Weights.DEFAULT)
data = torch.rand(1, 3, 64, 64)
target = torch.rand(1, 1000)
optimizer = torch.optim.SGD(net.parameters(), lr=0.001, momentum=0.9)
criterion = torch.nn.CrossEntropyLoss()
orig = net.conv1.weight.clone()[0, 0, 0, 0]
weight = net.conv1.weight[0, 0, 0, 0]
# 1
optimizer.zero_grad()
print(f"{weight == orig}")

# 2
output = net(data)
loss = criterion(output, target)
print(f"{weight == orig}")

# 3
loss.backward()
print(f"{weight == orig}")

# 4
optimizer.step()
print(f"{weight == orig}")

#True
#True
#True
#False
  1. 我们将实现有一个隐藏层的神经网络。这个网络将接受一个32x32的灰度图像输入,展开它,通过一个有100个输出特征的仿射变换,应用 ReLU 非线性,然后映射到目标类别(10)。实现初始化和前向传递,完成以下代码。使用 nn.Linear, F.relu, torch.flatten
import torch
import torch.nn as nn
import torch.nn.functional as F


class Net(nn.Module):

    def __init__(self):
        super(Net, self).__init__()
        # 在这里补充代码

    def forward(self, x):
        # 在这里补充代码
        return x
  1. 用两行代码验证你能通过上述网络进行前向传递。

  2. 在不运行代码的情况下,猜测以下语句的结果是什么?

net = Net()
print(len(list(net.parameters())))
  1. 获取网络参数的名称

  2. 以下语句指的是哪个网络层?它将评估什么?

print(list(net.parameters())[1].size())
  1. 以下示意图包含了实现一个神经网络所需的所有信息。实现初始化和前向传递,完成以下代码。使用 nn.Conv2d, nn.Linear, F.max_pool2d, F.relu, torch.flatten。提示:ReLU 在子采样操作后和前两个全连接层之后应用。
    在这里插入图片描述
import torch
import torch.nn as nn
import torch.nn.functional as F


class Net(nn.Module):

    def __init__(self):
        super(Net, self).__init__()
        # your code here

    def forward(self, x):
        # your code here
        return x
  1. 修改上述代码,使用 nn.MaxPool2d 代替 F.max_pool2d

  2. 尝试通过将第一个卷积层的输出通道数从6增加到12来增加网络的宽度。你还需要改变什么?

3. 训练分类器

接下来,我们进入教程的最后一部分:Cifar10教程。这个教程通过以下步骤来训练一个图像分类器:

  • 使用torchvision加载和归一化 (normalize) CIFAR10训练和测试数据集
  • 定义一个卷积神经网络
  • 定义一个损失函数
  • 在训练数据上训练网络
  • 在测试数据上测试网络

完成上述教程后,回答以下问题:

  1. 以下数据集加载代码可以运行,但代码中是否有错误?这些错误的影响是什么?如何修复这些错误?
import torch
from torchvision import datasets, transforms
transform = transforms.Compose(
   [transforms.ToTensor(),
    transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])

batch_size = 4

trainset = datasets.CIFAR10(root='./data', train=False, download=True, transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=batch_size, shuffle=False, num_workers=2)

testset = datasets.CIFAR10(root='./data', train=True, download=True, transform=transform)
testloader = torch.utils.data.DataLoader(testset, batch_size=batch_size, shuffle=False, num_workers=2)
  1. 编写两行代码从数据加载器中获取随机的训练图像(假设上面的错误已经修复)。

  2. 以下训练代码可以运行,但代码中是否有错误(包括计算效率低下)?这些错误的影响是什么?如何修复这些错误?

running_loss = 0.0
for epoch in range(2):    # loop over the dataset multiple times
  for i, data in enumerate(trainloader, 0):
      # get the inputs; data is a list of [inputs, labels]
      inputs, labels = data
      # forward + backward + optimize
      outputs = net(inputs)
      loss = criterion(outputs, labels)
      loss.backward()
      optimizer.step()

      # print statistics
      running_loss += loss
      if i % 2000 == 1999:    # print every 2000 mini-batches
          print(f'[{epoch + 1}, {i + 1:5d}] loss: {running_loss / 2000:.3f}')
          running_loss = 0.0
          break
  1. 以下评估代码可以运行,但其中是否存在错误(包括计算效率低下)?这些错误的影响是什么?如何修正这些错误?
correct = 0
total = 0
# since we're not training, we don't need to calculate the gradients for our outputs
for data in testloader:
    images, labels = data
    # calculate outputs by running images through the network
    outputs = net(images)
    # the class with the highest energy is what we choose as prediction
    _, predicted = torch.max(outputs.data, 1)
    total += labels.size(0)
    correct += (predicted == labels).sum()

print(f'Accuracy of the network on the 10000 test images: {100 * correct // total} %')

4. 总结

切记以上代码可能刚开始看会有些困难,但这很正常,一定要克制住自己的好奇心,不要直接看答案,哪怕实在想不出来,也应该先把自己的思考和尝试写下来。然后再去看答案,比对自己的输出和答案有什么区别(敏感的人可能发现了,这和前向传播和计算损失很像),确实是这样,就是需要不断训练自己的大脑。

熟悉PyTorch可能需要一些时间,这很正常!PyTorch是深度学习开发的强大工具。完成上面的练习后,可以在这里查看快速入门教程,该教程将涵盖更多方面,包括保存和加载模型以及数据集和数据加载器。在学习API的过程中,记住关键的使用模式可能会很有用;我喜欢的一个PyTorch备忘录可以在[这里](https://github.com/pytorch/tutorials/blob/master/beginner_source/PyTorch Cheat.md)找到。

这就是我们关于PyTorch基础知识的全部内容!

对自己的输出和答案有什么区别(敏感的人可能发现了,这和前向传播和计算损失很像),确实是这样,就是需要不断训练自己的大脑。

熟悉PyTorch可能需要一些时间,这很正常!PyTorch是深度学习开发的强大工具。完成上面的练习后,可以在这里查看快速入门教程,该教程将涵盖更多方面,包括保存和加载模型以及数据集和数据加载器。在学习API的过程中,记住关键的使用模式可能会很有用;我喜欢的一个PyTorch备忘录可以在这里找到。

这就是我们关于PyTorch基础知识的全部内容!

恭喜你 - 现在你已经具备了开始解决利用PyTorch的更复杂深度学习代码的能力。
欢迎加入我的知识星球,定期分享AI论文干货知识!

  • 17
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值