![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 84
邓永豪
To be a top guy.
展开
-
《昇思25天学习打卡营第12天|ResNet50迁移学习》
batch_size = 18 # 批量大小image_size = 224 # 训练图像空间大小num_epochs = 5 # 训练周期数lr = 0.001 # 学习率momentum = 0.9 # 动量workers = 4 # 并行线程个数# 数据集目录路径# 创建训练数据集"""数据加载"""# 数据增强操作scale = 32trans = [else:trans = [# 数据映射操作# 批量操作。原创 2024-07-15 23:08:21 · 574 阅读 · 0 评论 -
《昇思25天学习打卡营第11天|FCN图像语义分割》
我进一步了解到FCN主要用于图像分割领域,是一种端到端的分割方法,是深度学习应用在图像语义分割的开山之作。通过进行像素级的预测直接得出与原图大小相等的label map。因FCN丢弃全连接层替换为全卷积层,网络所有层均为卷积层,故称为全卷积网络。Pixel Accuracy(PA, 像素精度):这是最简单的度量,为标记正确的像素占总像素的比例。Mean Pixel Accuracy(MPA, 均像素精度):是PA的一种简单提升,计算每个类内被正确分类像素数的比例,之后求所有类的平均。原创 2024-07-14 22:03:37 · 852 阅读 · 0 评论 -
《昇思25天学习打卡营第10天|使用静态图加速》
今日学习的重点是使用静态图加速,并理解和区分动态图模式和静态图模式的异同,并了解各自的使用场景。学习了如何在MindSpore框架中切换这两种模式,包括基于装饰器和基于context的切换方式。这些知识将有助于我们在实际的模型训练和推理中选择更适合的模式,提升工作效率和模型性能。原创 2024-07-05 22:38:19 · 1002 阅读 · 0 评论 -
《昇思25天学习打卡营第9天|保存与加载》
在今天的学习中,我深入了解了如何在模型训练过程中保存和加载模型。我学习了如何利用MindSpore的save_checkpoint接口将模型保存下来,然后通过load_checkpoint和load_param_into_net方法将参数加载到模型中。此外,我还了解了MindSpore提供的统一的中间表示(Intermediate Representation,IR)功能,学习了如何将模型直接保存为MindIR格式,并在需要时加载这些模型进行推理。原创 2024-07-04 22:18:35 · 878 阅读 · 0 评论 -
《昇思25天学习打卡营第8天|模型训练》
通过对今天这一节内容的学习,我全面了解了模型训练的整个流程。首先,我构建了数据集并定义了神经网络模型作为训练的基础。接着,我设置了超参数、损失函数和优化器,这些元素决定了训练过程中的行为和目标。超参数让我能够微调模型的训练过程,损失函数则用于评估模型预测值和目标值间的误差,而优化器则决定了如何调整模型参数以最小化这个误差。然后,我进行了模型的实际训练,每遍历一次所有数据我就完成了一轮训练,同时在每轮结束后我都进行了模型性能的评估。通过今天的学习和实践,我对如何使用MindSpore进行模型训练和评估有了更深原创 2024-07-04 17:27:10 · 939 阅读 · 0 评论 -
《昇思25天学习打卡营第7天|函数式自动微分》
在今天的学习中,我深入理解了神经网络训练的核心原理,包括反向传播算法和如何利用自动微分技术来计算梯度并更新模型参数。我也学习了如何使用MindSpore框架的函数式自动微分接口来进行实践,并利用计算图进行模型参数优化。此外,我理解了Stop Gradient操作和辅助数据对梯度计算的影响,以及如何在神经网络的梯度计算中有效利用它们。通过理论学习和实践操作,我对这些概念有了更深入的理解,期待在明天的学习中继续进步。原创 2024-07-03 22:38:19 · 812 阅读 · 0 评论 -
《昇思25天学习打卡营第6天|网络构建》
在第六节中我们学习了网络构建,了解了神经网络模型是由神经网络层和Tensor操作构成,我们使用的mindspore.nn中提供了常见的升级网络层的实现,其中我们了解到了Cell类作为构建所有网络的基类,由不同的子Cell构成,一个Cell表示一个神经网络模型,在本节中将实现构建一个用于Mnist数据集分类的神经网络模型,来让我们更加生动形象的学习网络的构建。原创 2024-07-02 15:55:24 · 406 阅读 · 0 评论 -
《昇思25天学习打卡营第5天|数据变换 Transforms》
我们知道在进行神经网络训练的时候,通常要将原始数据进行一系列的数据预处理操作才会进行训练,所以MindSpore提供了不同类型的数据变换方式。本节主要通过了对mindspore.dataset所提供的不同类型的Transforms进行了数据变换的讲解。其中包括了Common Transforms、Vision Transforms、Text Transforms这三个主要部分,分别讲述了这些的Transformers的知识以及应用。原创 2024-07-01 20:53:11 · 282 阅读 · 0 评论 -
《昇思25天学习打卡营第4天|数据集 Dataset》
今天学习的是数据集的内容。首先,数据是深度学习的基石,高质量的数据输入能够在整个深度神经网络中发挥积极作用。MindSpore通过基于Pipeline的数据引擎,实现了高效的数据预处理,这个数据引擎包括数据集(Dataset)和数据变换(Transforms)两部分。其中,Dataset是Pipeline的起点,用于加载原始数据。mindspore.dataset模块提供了内置的文本、图像、音频等数据集加载接口,还学习了自定义数据集的加载等内容。在第三个部分,我们讲解了数据集常用的操作。原创 2024-06-30 23:09:59 · 408 阅读 · 0 评论 -
《昇思25天学习打卡营第3天|张量 Tensor》
张量?张亮?张量是什么?张量是一个可以用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,张量作为一种特殊的数据结构,和数组和矩阵都有一定的相似性,是MindSpore网络运算中的基本数据结构。在本节当中主要介绍了张量以及稀疏张量的属性和用法。原创 2024-06-29 16:23:28 · 288 阅读 · 0 评论 -
《昇思25天学习打卡营第2天|快速入门》
今天是学习打卡的第2天,今天的内容是对MindSpore的一个快速入门,主要通过MindSpore的API来快速实现一个简单的深度学习模型。原创 2024-06-28 17:44:06 · 922 阅读 · 0 评论 -
《昇思25天学习打卡营第1天|基本介绍》
今天非常荣幸的收到了昇思25天学习打卡营的邀请。昇思MindSpore作为华为昇腾AI全栈的重要一员,他支持端、边、云独立的和协同的统一训练和推理框架,有着易于开发、执行效率高、全场景框架等多种特点,为昇腾AI全栈提供了有力的帮助。我将会在接下来的时间里去一步步的去深入了解昇思MindSpore这个全场景深度学习框架,并将我的学习心得分享与你。原创 2024-06-27 23:50:06 · 312 阅读 · 0 评论