Python 机器学习求解 PDE 学习项目 基础知识(4)PyTorch 库函数使用详细案例

PyTorch 库函数使用详细案例

在这里插入图片描述

前言

在深度学习中,PyTorch 是一个广泛使用的开源机器学习库。它提供了强大的功能,用于构建、训练和评估深度学习模型。本文档将详细介绍如何使用以下 PyTorch 相关库函数,并提供相应的案例示例:

  • torch
  • torch.nn.functional
  • torch.optim.lr_scheduler
    这些库函数的使用将成为后续我们使用 机器学习求解 PDE 的基础。

1. torch

示例:张量操作

import torch

# 创建张量
x = torch.tensor([1.0, 2.0, 3.0])
y = torch.tensor([4.0, 5.0, 6.0])

# 张量加法
z = x + y
print(z)  # 输出: tensor([5., 7., 9.])

# 张量乘法
z = x * y
print(z)  # 输出: tensor([ 4., 10., 18.])

# 张量的加法和乘法的其他操作
z = torch.add(x, y)
print(z)  # 输出: tensor([5., 7., 9.])
z = torch.mul(x, y)
print(z)  # 输出: tensor([ 4., 10., 18.])

2. torch.nn.functional(简称 F)

torch.nn.functional(通常简写为torch.nn.f或简单地称为F)是PyTorch中一个非常重要的模块,它包含了构建神经网络所需的大部分激活函数、损失函数、归一化层等函数式接口。这些函数不保留任何内部状态,即它们是无状态的,每次调用时都会接收输入并返回输出,而不会保存任何关于之前输入或输出的信息。这使得torch.nn.functional中的函数非常适合用于定义前向传播逻辑,同时也使得模型定义更加灵活和清晰。

主要功能分类

  1. 激活函数:如ReLU、Sigmoid、Tanh等,用于在神经网络层之间添加非线性。
  2. 损失函数:如MSELoss、CrossEntropyLoss等,用于计算预测值和真实值之间的差异。
  3. 归一化函数:如BatchNorm、LayerNorm等,用于对输入数据进行归一化处理,加速训练过程并提升模型性能。
  4. 卷积和池化操作:如conv2d、max_pool2d等,用于图像等数据的特征提取。
  5. 其他操作:如dropout、padding、embedding等,提供了丰富的网络构建工具。
示例:激活函数和损失函数
import torch
import torch.nn.functional as F

# 创建张量
x = torch.tensor([-1.0, 0.0, 1.0])

# ReLU 激活函数
relu_x = F.relu(x)
print(relu_x)  # 输出: tensor([0., 0., 1.])

# Sigmoid 激活函数
sigmoid_x = torch.sigmoid(x)
print(sigmoid_x)  # 输出: tensor([0.2689, 0.5000, 0.7311])

# 计算均方误差损失
target = torch.tensor([0.0, 1.0, 1.0])
loss = F.mse_loss(sigmoid_x, target)
print(loss)  # 输出: tensor(0.2201)

使用torch.nn.functional中的ReLU激活函数和CrossEntropyLoss损失函数:
import torch  
import torch.nn.functional as F  
  
# 假设我们有以下简单的模型参数(通常这些参数会由torch.nn.Module的子类管理)  
# 假设输入图像大小为1x28x28(1个通道,28x28像素)  
# 第一个全连接层将784(28*28)个输入转换为128个输出  
weight1 = torch.randn(784, 128)  
bias1 = torch.zeros(128)  
# 第二个全连接层将128个输入转换为10个输出(对应10个类别)  
weight2 = torch.randn(128, 10)  
bias2 = torch.zeros(10)  
  
# 模拟一个批次的数据(假设批次大小为1,即一张图像)  
# 这里我们随机生成一个1x28x28的图像,并展平为1x784  
x = torch.randn(1, 1, 28, 28)  # [batch_size, channels, height, width]  
x = x.view(1, -1)  # 展平为 [batch_size, 784]  
  
# 前向传播  
# 第一层全连接 + ReLU激活  
h1 = x.mm(weight1) + bias1  # [batch_size, 128]  
h1 = F.relu(h1)  
  
# 第二层全连接  
output = h1.mm(weight2) + bias2  # [batch_size, 10]  
  
# 假设真实标签是3(即手写数字3)  
label = torch.tensor([3], dtype=torch.long)  
  
# 计算损失  
loss = F.cross_entropy(output, label)  
  
print(f'Loss: {loss.item()}')

注意事项

  • 在实际使用中,通常会通过继承torch.nn.Module来构建和管理网络参数,因为这样可以更方便地利用PyTorch提供的自动求导、模型保存/加载等功能。
  • torch.nn.functional中的函数通常与torch.nn模块中的层(Layer)相对应,但函数式接口更加灵活,适合用于快速原型设计或简单网络构建。
  • 在进行模型训练时,通常会使用torch.optim中的优化器来更新模型参数,而torch.nn.functional中的函数则用于定义前向传播逻辑和计算损失。

3. torch.optim.lr_scheduler

PyTorch 学习率调度器详细案例

背景

在训练深度学习模型时,学习率的设置和调整对模型的训练效果和速度有着重要的影响。PyTorch 提供了多种学习率调度器,可以在训练过程中动态调整学习率。下面将详细解释如何使用 StepLRMultiStepLR 学习率调度器,并演示它们的使用。

示例代码

import torch
from torch.optim import SGD
from torch.optim.lr_scheduler import StepLR, MultiStepLR

# 创建一个简单的模型
model = torch.nn.Linear(10, 1)

# 创建优化器
optimizer = SGD(model.parameters(), lr=0.1)

# 创建学习率调度器
scheduler_step = StepLR(optimizer, step_size=10, gamma=0.1)
scheduler_multistep = MultiStepLR(optimizer, milestones=[30, 80], gamma=0.1)

# 模拟训练过程
for epoch in range(100):
    optimizer.step()  # 更新模型参数
    scheduler_step.step()  # 更新学习率
    scheduler_multistep.step()  # 更新学习率
    print(f"Epoch {epoch}: StepLR LR={scheduler_step.get_last_lr()}, MultiStepLR LR={scheduler_multistep.get_last_lr()}")

解释:

  • StepLR
    StepLR 是一种按固定步数调整学习率的调度器。
    step_size=10 表示每 10 个 epoch 调整一次学习率。
    gamma=0.1 表示每次调整时,将学习率乘以 0.1.
  • MultiStepLR
    MultiStepLR 是一种在指定的 epoch 列表中调整学习率的调度器。
    milestones=[30, 80] 表示在第 30 和第 80 个 epoch 时调整学习率。
    gamma=0.1 表示在这些 epoch 调整时,将学习率乘以 0.1.

请添加图片描述


本专栏致力于普及各种偏微分方程的不同数值求解方法,所有文章包含全部可运行代码。欢迎大家支持、关注!

作者 :计算小屋
个人主页计算小屋的主页

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
傅立叶神经网络(Fourier Neural Operator, FNO)是一种基于深度学习的新型框架,用于求解偏微分方程(Partial Differential Equations, PDEs)。它结合了物理领域的傅立叶变换和机器学习的神经网络思想,特别适合处理复杂的时空依赖的PDE问题。 FNO的基本原理是将输入的空间变量通过傅立叶变换转化为频域,然后在网络中进行特征提取和变换操作,最后再转换回空间域得到解。这种方法利用了傅立叶变换在解决线性和周期性问题方面的优势,并通过神经网络学习非线性的映射关系。 在Python中,可以使用PyTorch或TensorFlow这样的深度学习库来实现傅立叶神经算子模型。例如,`torchphysics`是一个包含FNO实现的库,它简化了构建和训练FNO模型的过程。你可以安装相应的库并按照其文档示例开始实验: ```python !pip install torchphysics import torchphysics as tp from torchphysics.models.pdes.fourier_neural_operator import FourierNeuralOperator # 创建一个FNO实例 model = FourierNeuralOperator(input_size=(spatial_dim, channels), output_size=1) # 准备数据集,包括输入特征和目标输出 dataset = ... # 填充你的数据集 # 定义损失函数和优化器 loss_fn = nn.MSELoss() optimizer = torch.optim.Adam(model.parameters(), lr=0.001) # 训练模型 for epoch in range(num_epochs): for inputs, targets in dataset: optimizer.zero_grad() outputs = model(inputs) loss = loss_fn(outputs, targets) loss.backward() optimizer.step() # 使用训练好的模型预测 predictions = model.predict(new_inputs) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

计算小屋

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值