ROCm上运行深度卷积神经网络(AlexNet)

75 篇文章 0 订阅
7 篇文章 0 订阅

安装 — 动手学深度学习 2.0.0 documentation (d2l.ai)

Start Locally | PyTorch

7.1. 深度卷积神经网络(AlexNet) — 动手学深度学习 2.0.0 documentation (d2l.ai)

配置环境

conda create --name d2l python=3.9 -y
conda activate d2l
pip install d2l==0.17.6
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/rocm6.0
mkdir d2l-zh && cd d2l-zh
curl https://zh-v2.d2l.ai/d2l-zh-2.0.0.zip -o d2l-zh.zip
unzip d2l-zh.zip && rm d2l-zh.zip
cd pytorch
jupyter notebook

代码

import torch
from torch import nn
from d2l import torch as d2l

net = nn.Sequential(
    # 这里使用一个11*11的更大窗口来捕捉对象。
    # 同时,步幅为4,以减少输出的高度和宽度。
    # 另外,输出通道的数目远大于LeNet
    nn.Conv2d(1, 96, kernel_size=11, stride=4, padding=1), nn.ReLU(),
    nn.MaxPool2d(kernel_size=3, stride=2),
    # 减小卷积窗口,使用填充为2来使得输入与输出的高和宽一致,且增大输出通道数
    nn.Conv2d(96, 256, kernel_size=5, padding=2), nn.ReLU(),
    nn.MaxPool2d(kernel_size=3, stride=2),
    # 使用三个连续的卷积层和较小的卷积窗口。
    # 除了最后的卷积层,输出通道的数量进一步增加。
    # 在前两个卷积层之后,汇聚层不用于减少输入的高度和宽度
    nn.Conv2d(256, 384, kernel_size=3, padding=1), nn.ReLU(),
    nn.Conv2d(384, 384, kernel_size=3, padding=1), nn.ReLU(),
    nn.Conv2d(384, 256, kernel_size=3, padding=1), nn.ReLU(),
    nn.MaxPool2d(kernel_size=3, stride=2),
    nn.Flatten(),
    # 这里,全连接层的输出数量是LeNet中的好几倍。使用dropout层来减轻过拟合
    nn.Linear(6400, 4096), nn.ReLU(),
    nn.Dropout(p=0.5),
    nn.Linear(4096, 4096), nn.ReLU(),
    nn.Dropout(p=0.5),
    # 最后是输出层。由于这里使用Fashion-MNIST,所以用类别数为10,而非论文中的1000
    nn.Linear(4096, 10))

X = torch.randn(1, 1, 224, 224)
for layer in net:
    X=layer(X)
    print(layer.__class__.__name__,'output shape:\t',X.shape)

batch_size = 128
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size, resize=224)

lr, num_epochs = 0.01, 10
d2l.train_ch6(net, train_iter, test_iter, num_epochs, lr, d2l.try_gpu())

代码解析

这段代码定义了一个卷积神经网络(CNN)并训练了Fashion-MNIST数据集的图像分类任务。它使用PyTorch框架中的API来实现,并且模仿了AlexNet的一般结构,这是一个著名的网络结构,常用于图像识别任务。以下是代码解析的逐步解释:
1. 导入相关模块:
    - torch:PyTorch深度学习框架的根模块。
    - nn:PyTorch中的模块,包含构建神经网络所需的所有组件。
    - d2l:这是用于深度学习的一个辅助库(“Dive into Deep Learning”的缩写)。可能需要单独安装。
2. 定义网络结构:`net`变量是一个由多个层组成的序贯模型(`nn.Sequential`),每一层的操作如下:
    - 第一个卷积层:使用11x11的卷积核,96个输出通道,步幅为4,边缘填充为1。
    - 激活函数ReLU:应用非线性激活函数。
    - 最大池化层:使用3x3的窗口进行最大池化操作,步幅为2。
    - 第二个卷积层:使用5x5的卷积核,256个输出通道,边缘填充为2。
    - 三个连续的卷积层:每层使用3x3的卷积核,输出通道分别为384, 384, 256,并且有边缘填充以保持图像尺寸。
    - 另一个最大池化层。
    - 展平层:将二维输出展平以便输送给全连接层。
    - 两个全连接层:具有4096个输出神经元,并且每层之后有Dropout操作,防止过拟合。
    - 输出层:最后一个全连接层,将4096维的特征映射到10个类别上,对应Fashion-MNIST数据集的10个分类。
3. 查看各层输出:通过遍历网络的每一层,输入一个随机生成的数据`X`(尺寸为1x1x224x224,代表一批大小为1的224x224像素的单通道图像),并打印各层的输出形状。
4. 数据加载与预处理:加载Fashion-MNIST数据集,并调整图像大小到224x224,以匹配网络输入的期望大小。`batch_size`指定了批次大小。
5. 定义超参数并开始训练:设置学习率为0.01,训练周期为10,然后调用`d2l.train_ch6`函数,开始训练过程。在训练过程中,这个函数将迭代数据集,并使用GPU(如果可用)进行计算。

ROCm (Radeon Open Compute) 提供了一个开放的生态系统,用于计算密集的任务,如深度学习。如果你要在支持ROCm的AMD GPU上运行深度学习模型(例如AlexNet),你需要确保ROCm已经安装在你的系统中,并且PyTorch与ROCm兼容。
在ROCm上运行PyTorch模型并不需要改变标准PyTorch模型的代码。然而,确保环境设置正确是至关重要的。下面是使用ROCm进行深度学习训练的一般步骤,我将以AlexNet为例说明:
### 安装ROCm
1. 参考ROCm的官方文档,根据你的操作系统安装ROCm。
2. 安装ROCm支持的PyTorch。你可以从PyTorch的官网获得与ROCm兼容的PyTorch安装命令。
请确保从PyTorch官网获取正确适配你的ROCm版本的安装命令。
### 运行AlexNet模型
由于你已经有了AlexNet模型的代码,且已经使用标准的PyTorch API编写,你不需要对模型代码本身做出改变。但在你开始训练模型之前,你需要确保代码运行在ROCm支持的GPU上。
对模型代码进行以下修改以便使用ROCm:
- 将模型移到GPU上
python
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
net.to(device)  # Move your model to GPU
- 确保所有的张量也被送到GPU上
python
X = X.to(device)  # Move your tensors to GPU
- 修改数据加载器,以便将数据传送到GPU
python
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size, resize=224)
在`load_data_fashion_mnist`函数中,确保数据在被提供给模型前移到GPU上。
接着,你可以像在标准PyTorch环境中一样使用`train_ch6`函数来训练模型。只要你的环境设置正确,ROCm将自动在AMD GPU上进行相关的计算。确保通过调用`d2l.try_gpu()`函数把模型和数据传送到正确的设备。
 

  • 20
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

109702008

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值