深度学习
文章平均质量分 89
深度学习基础
方世恩
人工智能学习中……
展开
-
【深度学习】(10)--ResNet残差网络
本篇介绍了:ResNet残差网络的好处:解决梯度消失和梯度爆炸以及退化问题。ResNet残差网络有两个核心特征:1. 残差结构;2. BN(Batch Normalization)。残差结构:防止退化。BN:减少梯度消失和梯度爆炸问题。原创 2024-09-28 14:03:05 · 434 阅读 · 0 评论 -
【深度学习】(1)--神经网络
本篇介绍了:1. 神经网络的构造2. 神经网络的运行过程3. 感知器原创 2024-09-13 23:06:08 · 2796 阅读 · 1 评论 -
【深度学习】(2)--PyTorch框架认识
多维数组:张量可以看作是一个n维数组,其中n可以是任意正整数。它可以是标量(零维数组)、向量(一维数组)、矩阵(二维数组)或具有更高维度的数组。数据类型统一:张量中的元素具有相同的数据类型,这有助于在GPU上进行高效的并行计算。支持GPU加速:PyTorch中的张量可以存储在CPU或GPU上,通过将张量转移到GPU上,可以利用GPU的强大计算能力来加速深度学习模型的训练和推理过程。原创 2024-09-17 22:14:30 · 5230 阅读 · 6 评论 -
【深度学习】(3)--损失函数
本篇介绍了部分损失函数:1. L1Loss损失函数:通常用于回归任务中。2. NLLLoss损失函数:在多分类问题中广泛应用。3. MSELoss损失函数:在多种回归任务中表现出色。4. BCELoss损失函数:广泛应用于各类二分类任务中。5. CrossEntropyLoss交叉熵损失函数:广泛应用于多分类问题中。原创 2024-09-18 22:37:32 · 2362 阅读 · 0 评论 -
【深度学习】(4)--卷积神经网络
本篇介绍了卷积神经网络的结构以及它的优点:1. 卷积神经网络能够将变换的物体识别出来。2. 卷积神经网络的结构:由输入层、卷积层、激活层、池化层、全连接层、输出层组成。3. 什么是感受野。原创 2024-09-22 19:46:17 · 1519 阅读 · 0 评论 -
【深度学习】(5)--搭建卷积神经网络
本篇介绍了如何搭建卷积神经网络,其主要的构造部分为卷积层、激活层以及池化层,可以搭建多层该部分对数据进行多次卷积、池化。注意:同普通的神经网络不同,卷积神经网络在传入图片时不需要将其展开,因为对图片进行卷积就是在原图上进行内积,不能展开。原创 2024-09-23 11:09:22 · 1317 阅读 · 0 评论 -
【深度学习】(6)--图像数据增强
本篇介绍了:数据增强的方法。数据增强是如何体现的。注意:数据增强与过采样直接拟合大量数据不同,数据增强体现在每次循环训练数据前,都给数据进行一次随机变换,使得每次训练的数据都不一样,从而实现训练大量的数据。原创 2024-09-24 10:07:02 · 978 阅读 · 0 评论 -
【深度学习】(7)--神经网络之保存最优模型
本篇介绍了:为什么随着迭代次数越来越多,模型的准确率会上下震荡甚至于下降。—> 过拟合pt\pth,t7三个扩展名,用于保存完整模型或者模型参数。模型的好坏,通过体现在测试集的结果上。保存最优模型的两种方法:保存模型参数和保存完整模型。原创 2024-09-25 09:35:21 · 976 阅读 · 9 评论 -
【深度学习】(8)--神经网络使用最优模型
本篇介绍了:如何使用保存好的最优模型加载模型的两种方法:1.加载模型状态字典;2.加载整个模型实例注意:两种方法都需要提前定义神经网络结构。原创 2024-09-26 09:37:01 · 971 阅读 · 0 评论 -
【深度学习】(9)--调整学习率
本篇介绍了:1. 通过调整学习率能够优化训练速度、提高训练稳定性、适应不同的训练阶段以及改善模型性能。2. 调整学习率有两种方法:1.使用库函数进行调整;2.手动调整学习率3. Pytorch学习率调整策略通过 torch.optim.lr_sheduler接口实现。并提供3种库函数调整方法:有序调整、自适应调整以及自定义调整。4. 在库函数调整方法中,注意在每个epochs迭代训练时,使用scheduler.step()语句进行学习率更新。原创 2024-09-27 09:42:40 · 1173 阅读 · 0 评论