自定义神经网络二之模型训练推理


前言

自定义神经网络一之Tensor和神经网络

通过上一篇文章,我们大概了解了神经网络以及常见的神经网络结构和应用场景。但是在日常与算法同学打交道中,基本都是算法同学提供模型,工程化同学进行推理获取结果。
那么模型是什么,怎么产生的模型,模型训练和推理又是干嘛的呢?下面我们一一道来。

模型概念

模型是什么?

一个模型通常是一个构建好的并通过数据训练过的神经网络。它会保存学习到的特征和模式,用来对新的数据进行预测或者解决特定的问题。
通常,一个神经网络模型主要包含两部分:结构(Architecture)权重(Weights)

  • 结构:这部分定义了模型的各个层及其连接方式。比如有多少层,每一层有多少个节点,每一层用的是什么类型的激活函数等等。这个结构是设计模型时预先定义好的。
  • 权重:在模型的训练过程中,模型会学习到一些权重和偏置,这些都存储在权重中。这些权重和偏置就是模型从数据中学到的规律和知识,用来进行预测的。

模型参数有哪些

参考:深度学习之参数初始化
参数是模型所需要学习的一部分,通常被认为是模型的"知识"。这些参数处理输入数据,帮助模型做出预测。
以最常见的深度学习模型——神经网络为例,它的参数主要包括权重和偏置。

  1. 权重(Weights):权重决定了每一个输入特征对最终输出预测的影响程度。例如,在多层感知器(MLP)中,每一个输入节点和隐藏节点之间都有一个权重,该权重决定了输入值被乘以多少然后送入下一层节点。
  2. 偏置(Biases):偏置是用来调节神经元的激活阈值。可以看作是当所有的输入特征都为0时模型的预测值。如果没有偏置,神经元的输出就只是输入的加权和,当输入都是0时,输出也会是0。有了偏置之后,即使所有输入都是0,神经元还是有可能被激活。
  3. 公式: Y = W1 * X1 + W2 * X2 + b
    1. 两个输入节点(X1,X2),和一个输出节点(Y)
    2. W1和W2就是权重,分别定义了X1和X2对Y的贡献。
    3. b就是偏置

在神经网络中,我们使用张量来表示权重和偏置。每一层的权重可以用一个二维的张量来表示,其中行表示输入节点的数量,列表示输出节点的数量。偏置则是一个一维的张量,长度等于输出节点的数量。

神经网络参数案例

image.png
由图可知,每一个层内部的组成主要有:
输入X/hi:来自原始样本X的输入(i=0)或上一层(第i−1层)的输出hi。
权重W:网络模型训练的主体对象,第ii层的权重参数wi。
状态值z:作为每一层激活函数f的输入,处于网络层的内部,所以称之为状态值。
激活值h:状态值zi经过了激活函数f后的输出,也就是第i层的最终输出hi;

为什么要生成模型

训练结束之后,我们可以直接使用训练好的神经网络进行推理,但是这样的话不具备移植性,程序运行结束没有存档。
我们可以保存成模型的方式,然后通过解析模型去进行推理,这样的模型是具备移植性的。而且相当于保留了训练成果,可以继续在这个模型上进行进一步的训练。

模型的保存通常包括两部分:
模型的结构和模型的权重。模型的结构保存了神经网络的架构(例如,各个层的类型,层的数量,每层的节点数等),而模型的权重保存了训练过程中学到的模型参数。
在Python的深度学习框架(如TensorFlow, PyTorch)中,“保存”模型通常意味着将模型的结构和权重序列化为二进制格式,并写入磁盘。对于TensorFlow和Keras,保存的模型通常是.h5或.ckpt(Checkpoint)格式的文件;对于PyTorch,保存的模型通常是.pt或.pth格式的文件。

模型的大小

参考:大模型(Large Model)常识综述(三)
这里要区分模型的磁盘大小和训练参数大小的区别。比如现在的大模型,训练参数可能是7b,13b,70b等,这里的b的单位是亿,比如7b代表70亿参数,这里的b代表10亿参数。
而模型的磁盘大小是指神经网络训练结束,保存为模型文件的大小。例如7b的llama2磁盘大小是3.8G, 13b的llama2磁盘大小是7.4G
image.png
我们自定义的神经网络,2层神经网络+每层一个神经元 + 每个神经元1个权重+偏置项 = 4个参数,保存模型大小为41k左右。

什么是大模型

**大模型是指具有大规模参数和复杂计算结构的机器学习模型。**这些模型通常由深度神经网络构建而成,拥有数十亿甚至数千亿个参数。大模型的设计目的是为了提高模型的表达能力和预测性能,能够处理更加复杂的任务和数据。

小模型通常指参数较少、层数较浅的模型,它们具有轻量级、高效率、易于部署等优点,适用于数据量较小、计算资源有限的场景,例如移动端应用、嵌入式设备、物联网等。
而当模型的训练数据和参数不断扩大,直到达到一定的临界规模后,其表现出了一些未能预测的、更复杂的能力和特性,模型能够从原始训练数据中自动学习并发现新的、更高层次的特征和模式,这种能力被称为“涌现能力”。而具备涌现能力的机器学习模型就被认为是独立意义上的大模型,这也是其和小模型最大意义上的区别。

模型的训练和推理

机器学习模型的训练和推理是一个基于数据的反馈循环过程。
训练过程是模型学习数据的过程,而推理过程是使用已训练好的模型进行预测或分类的过程。

模型训练

训练概念

一个初始神经网络通过不断的优化自身参数,来让自己变得准确。这整个过程就称之为训练(Training)

训练过程
  1. 数据准备:选择和收集相应的数据集,对数据进行清洗、标注、特征提取等预处理操作,以便让数据适合模型的输入。
  2. 模型选择和定义:根据问题的需求,选择合适的模型架构,比如神经网络、决策树等,并定义模型的结构、参数和超参数。
  3. 模型初始化:对模型参数进行初始化操作,这样可以让模型开始训练时具有一定的初始能力。
  4. 前向传播:将数据输入模型,通过模型的每一层计算,从输入层到输出层的过程称为前向传播。在前向传播过程中,模型会依次计算每一层的输出,并在最后一层产生预测结果。
  5. 激活函数:每个神经元接收到输入后对其加权求和,然后传递给激活函数,根据激活函数的结果确定神经元的输出。
  6. 计算损失函数:将模型预测的结果与真实标签进行比较,计算模型的误差。常用的损失函数有平方损失、交叉熵损失等。
  7. 反向传播:根据损失函数的值,通过反向传播算法计算模型中各个参数的梯度。梯度是损失函数对参数的变化率,反向传播的目的是根据模型对样本的预测误差来调整模型参数,使得预测结果更加准确。
  8. 参数更新:利用优化算法(如梯度下降算法)根据梯度信息对模型参数进行更新。更新参数的过程会降低模型在当前任务上的训练误差。
  9. 重复迭代:通过重复执行前面的步骤,不断训练模型,直到模型的性能达到预期或收敛。

训练过程中的一些概念

正向传播: 输入信号从输入层经过各个隐藏层向输出层传播。在输出层得到实际的响应值,若实际值与期望值误差较大,就会转入误差反向传播阶段。
反向传播: 按照梯度下降的方法从输出层经过各个隐含层并逐层不断地调整各神经元的连接权值和阈值,反复迭代,直到网络输出的误差减少到可以接受的程度,或者进行到预先设定的学习次数。
代(Epoch): 使用训练集的全部数据对模型进行一次完整训练,被称为“一代训练”。
批大小(Batch size): 使用训练集的一小部分样本对模型权重进行一次反向传播的参数更新,这一小部分样本被称为“一批数据”
迭代(Iteration): 使用一个Batch数据对模型进行一次参数更新的过程,被称为“一次训练”(一次迭代)。每一次迭代得到的结果都会被作为下一次迭代的初始值。一个迭代=一个正向通过+一个反向通过。
2018122814580746.png
比如训练集有500个样本,batchsize = 10 ,那么训练完整个样本集:iteration=50,epoch=1.

模型推理

推理概念

你训练好了一个模型,在训练数据集中表现良好,但是我们的期望是它可以对以前没看过的图片进行识别。你重新拍一张图片扔进网络让网络做判断,这种图片就叫做现场数据(livedata),如果现场数据的区分准确率非常高,那么证明你的网络训练的是非常好的。这个过程,称为推理(Inference)。

推理过程
  1. 数据准备:与训练过程相似,对输入数据进行预处理和特征提取。
    2. 模型加载:将训练好的模型加载到内存中,准备进行推理。
    3. 前向传播:将处理后的数据输入模型,并通过前向传播计算得到输出结果。
    4. 输出解释:针对输出结果进行解释和处理,根据具体的问题进行分类、回归、预测等。
    5. 结果反馈:将输出结果反馈给用户或其他系统,完成推理过程。

需要注意的是,训练过程通常需要大量的数据和计算资源来完成,而推理过程相对较快,因为训练过程中大部分的计算已经在模型参数更新时完成了。

总结

本篇博客主要介绍了神经网络中模型的相关概念以及模型的训练和推理过程。整体来说更偏概念性,特别是训练和推理部分。后续我们会在自定义神经网络部分详细解释训练和推理在代码上的表示。

end

  • 20
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: 好的,以下是一段使用自定义数据集potsdam来训练神经网络的Python代码: ``` import torch import torchvision.transforms as transforms import torchvision.datasets as datasets # 定义数据集路径 data_path = 'path/to/potsdam/dataset/' # 定义数据转换器 data_transforms = transforms.Compose([ transforms.Resize((256, 256)), transforms.ToTensor(), ]) # 加载数据集 train_dataset = datasets.ImageFolder(root=data_path+'train', transform=data_transforms) val_dataset = datasets.ImageFolder(root=data_path+'val', transform=data_transforms) # 定义数据加载器 train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=32, shuffle=True, num_workers=4) val_loader = torch.utils.data.DataLoader(val_dataset, batch_size=32, shuffle=False, num_workers=4) # 定义神经网络模型 model = YourModel() # 定义优化器和损失函数 optimizer = torch.optim.Adam(model.parameters(), lr=0.001) criterion = torch.nn.CrossEntropyLoss() # 训练神经网络 num_epochs = 10 for epoch in range(num_epochs): for i, (images, labels) in enumerate(train_loader): # 将数据放入GPU计算 images = images.to('cuda') labels = labels.to('cuda') # 前向传播计算loss outputs = model(images) loss = criterion(outputs, labels) # 反向传播更新参数 optimizer.zero_grad() loss.backward() optimizer.step() # 每10次迭代输出一次信息 if (i+1) % 10 == 0: print('Epoch [{}/{}], Step [{}/{}], Loss: {:.4f}' .format(epoch+1, num_epochs, i+1, len(train_loader), loss.item())) # 在验证集上测试并输出信息 model.eval() with torch.no_grad(): correct = 0 total = 0 for images, labels in val_loader: # 将数据放入GPU计算 images = images.to('cuda') labels = labels.to('cuda') # 前向传播计算准确率 outputs = model(images) _, predicted = torch.max(outputs.data, 1) total += labels.size(0) correct += (predicted == labels).sum().item() accuracy = 100 * correct / total print('Accuracy of the model on the test images: {:.3f} %'.format(accuracy)) model.train() ``` 说明:上述代码中,我们首先定义了数据集路径和数据加载器,然后定义神经网络模型、优化器和损失函数,最后进行训练,并在每次迭代和每个epoch结束时输出信息。其中,要注意将数据放入GPU计算。如果不使用GPU,请将代码中的"cuda"改为"cpu"。 ### 回答2: 要训练一个神经网络来处理自定义数据集potsdam,我们可以按以下步骤进行: 首先,我们需要准备数据集,确保数据集的格式和标签都是适合神经网络处理的。在这个例子中,我们假设potsdam数据集是一组图像,每个图像都有相应的标签,表示图像的类别。我们可以使用一些图像处理库如OpenCV来加载和处理图像,确保它们以适当的格式保存并分配相应的标签。 接下来,我们可以使用深度学习框架如TensorFlow或PyTorch来创建神经网络模型。我们可以选择一个合适的预训练模型作为基础,并根据自己的需求进行微调。对于图像分类任务,常用的模型有ResNet、VGG等。我们可以根据数据集的大小和复杂度选择合适的模型,并根据需要调整层数和神经元的数量。 然后,我们需要划分数据集为训练集和验证集。我们可以将数据集按比例分割,例如80%的图像用于训练,20%的图像用于验证。这样可以帮助我们评估训练过程中的模型性能,并及时调整超参数或改进模型。 在模型训练的过程中,我们可以通过定义损失函数和优化器来指导模型的学习。常见的损失函数有交叉熵损失函数,常见的优化器有随机梯度下降(SGD)、Adam等。我们可以根据问题的性质和特点选择适合的损失函数和优化器。 最后,我们对模型进行训练。我们可以使用训练集的图像和标签作为输入,根据定义的损失函数和优化器不断调整模型参数,使得模型能够准确地预测图像的标签。我们可以设置训练的迭代次数和批处理大小,以及其他的训练参数。在训练过程中,我们可以周期性地评估模型在验证集上的性能,并保存表现最好的模型作为最终的模型。 综上所述,我们可以使用上述步骤中提到的方法来训练神经网络处理自定义数据集potsdam。具体的代码实现需要根据具体的深度学习框架和数据集处理库进行调整和编写。 ### 回答3: 这里给出一个简单的代码示例,展示如何使用自定义数据集Potsdam来训练神经网络。 ```python import torch import torchvision.transforms as transforms import torchvision.datasets as datasets # 1. 定义数据集路径和转换 data_root = '/path/to/potsdam/dataset' # 数据集存放的根路径 transform = transforms.Compose([ transforms.Resize((256, 256)), transforms.ToTensor() ]) # 2. 加载自定义数据集 potsdam_dataset = datasets.ImageFolder(root=data_root, transform=transform) # 3. 创建数据加载器 batch_size = 64 data_loader = torch.utils.data.DataLoader(dataset=potsdam_dataset, batch_size=batch_size, shuffle=True) # 4. 定义神经网络模型 model = YourCustomNeuralNetwork() # 自定义神经网络模型 # 5. 定义损失函数和优化器 criterion = torch.nn.CrossEntropyLoss() optimizer = torch.optim.Adam(model.parameters(), lr=0.001) # 6. 训练神经网络模型 num_epochs = 10 for epoch in range(num_epochs): for i, (images, labels) in enumerate(data_loader): # 前向传播 outputs = model(images) loss = criterion(outputs, labels) # 反向传播和优化 optimizer.zero_grad() loss.backward() optimizer.step() # 打印训练信息 if (i+1) % 10 == 0: print('Epoch [{}/{}], Step [{}/{}], Loss: {:.4f}' .format(epoch+1, num_epochs, i+1, len(potsdam_dataset)//batch_size, loss.item())) # 7. 保存模型 torch.save(model.state_dict(), 'potsdam_model.pth') # 8. 使用模型进行推理 # 你可以加载模型并使用测试图片进行推理 ``` 以上代码示例中,我们首先定义了数据集路径和转换,使用`ImageFolder`创建了自定义数据集`potsdam_dataset`。然后,我们定义了神经网络模型,并选择了适合任务的损失函数和优化器。通过迭代训练数据集来更新模型参数,使用`DataLoader`来加载数据并分批训练模型。最后,我们保存模型并可以使用加载的模型进行推理

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

铁柱同学

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值