昇思学习
文章平均质量分 88
saisaiz
这个作者很懒,什么都没留下…
展开
-
昇思25天学习打卡营第8天|基础知识-保存与加载
在训练网络模型的过程中,我们希望保存中间和最后的结果,用于微调(fine-tune)和后续的模型推理与部署,本文将介绍如何保存与加载模型。保存模型:save_checkpoint()和方法环境导包定义网络。原创 2024-07-31 21:47:04 · 288 阅读 · 0 评论 -
昇思25天学习打卡营第7天|基础知识-模型训练
从网络构建中加载代码,构建一个神经网络模型。nn.ReLU(),nn.ReLU(),超参(Hyperparameters)是可以调整的参数,可以控制模型训练优化的过程,不同的超参数值可能会影响模型训练和收敛速度。目前深度学习模型多采用批量随机梯度下降算法进行优化,随机梯度下降算法的原理如下:公式中,𝑛是批量大小(batch size),η是学习率(learning rate)。另外,𝑤𝑡为训练轮次𝑡中的权重参数,∇𝑙为损失函数的导数。原创 2024-07-31 21:02:09 · 1536 阅读 · 0 评论 -
昇思25天学习打卡营第6天|基础知识-函数式自动微分
神经网络的训练主要使用反向传播算法,模型预测值(logits)与正确标签(label)送入损失函数(loss function)获得loss,然后进行反向传播计算,求得梯度(gradients),最终更新至模型参数(parameters)。自动微分能够计算可导函数在某点处的导数值,是反向传播算法的一般化。自动微分主要解决的问题是将一个复杂的数学运算分解为一系列简单的基本运算,该功能对用户屏蔽了大量的求导细节和过程,大大降低了框架的使用门槛。原创 2024-07-30 21:44:10 · 891 阅读 · 0 评论 -
昇思25天学习打卡营第5天|基础知识-网络构建
当我们定义神经网络时,可以继承nn.Cell类,在__init__方法中进行子Cell的实例化和状态管理,在construct方法中实现Tensor操作。construct意为神经网络(计算图)构建nn.ReLU(),nn.ReLU(),其中:这个层的作用是将输入的多维数据(如图像)展平成一维数据,以便可以输入到全连接层(Dense层)中。这里假设输入数据是二维图像(例如,MNIST数据集中的28x28像素图像),展平后变为784维的向量。实例化nn.Flatten。原创 2024-07-29 18:53:01 · 794 阅读 · 0 评论 -
昇思25天学习打卡营第4天|基础知识-数据变换 Transforms
函数是一个非常有用的内置高阶函数,它接收两个参数:第一个参数是一个函数,第二个参数是一个可迭代对象(如列表、元组等),然后将这个函数应用于可迭代对象的每一个元素上,并返回一个迭代器,该迭代器包含了所有经过函数处理后的元素。函数的工作原理是遍历序列中的每个元素,将元素作为参数传递给函数,然后根据函数的返回值(True 或 False)来决定是否将该元素包含在结果迭代器中。函数是 Python 的一个内置高阶函数,它用于过滤序列,过滤掉那些不符合条件的元素,返回由符合条件元素组成的新迭代器。原创 2024-07-29 16:53:42 · 1141 阅读 · 0 评论 -
昇思25天学习打卡营第3天|基础知识-数据集Dataset
模块提供了一些常用的公开数据集和标准格式数据集的加载API。对于MindSpore暂不支持直接加载的数据集,可以构造自定义数据加载类或自定义数据集生成函数的方式来生成数据集,然后通过接口实现自定义方式的数据集加载。支持通过可随机访问数据集对象、可迭代数据集对象和生成器(generator)构造自定义数据集。原创 2024-07-28 21:45:31 · 868 阅读 · 0 评论 -
昇思25天学习打卡营第2天|基础知识-张量
昇思25天学习打卡营第2天|基础知识-张量原创 2024-07-27 18:40:14 · 715 阅读 · 0 评论 -
昇思25天学习打卡营第1天|快速入门-实现一个简单的深度学习模型
昇思学习原创 2024-07-26 22:31:54 · 1054 阅读 · 0 评论