自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(18)
  • 收藏
  • 关注

原创 昇思25天学习打卡营第18天 | ResNet50迁移学习(续)

batch_size = 18 # 批量大小image_size = 224 # 训练图像空间大小num_epochs = 5 # 训练周期数lr = 0.001 # 学习率momentum = 0.9 # 动量workers = 4 # 并行线程个数batch_size作用:批量大小(batch size)是指在一次梯度更新中使用的样本数量。它影响模型的收敛速度和稳定性。含义:在您的例子中,表示在每个训练步骤中,模型将处理18张图像,并基于这些图像的损失函数计算梯度进行权重更新。

2024-07-06 23:51:02 372

原创 昇思25天学习打卡营第17天 | ResNet50迁移学习

在实际应用场景中,由于训练数据集不足,所以很少有人会从头开始训练整个网络。普遍的做法是,在一个非常大的基础数据集上训练得到一个预训练模型,然后使用该模型来初始化网络的权重参数或作为固定特征提取器应用于特定的任务中。本章将使用迁移学习的方法对ImageNet数据集中的狼和狗图像进行分类。迁移学习详细内容链接。

2024-07-05 23:59:13 282

原创 昇思25天学习打卡营第16天 | 基于MindNLP+MusicGen生成自己的个性化音乐

MusicGen是来自Meta AI的Jade Copet等人提出的基于单个语言模型(LM)的音乐生成模型,能够根据文本描述或音频提示生成高质量的音乐样本,相关研究成果参考论文《

2024-07-05 00:57:10 965

原创 昇思25天学习打卡营第15天 | MindNLP ChatGLM-6B StreamChat

可以修改下列参数和prompt体验模型。

2024-07-03 19:17:56 106

原创 昇思25天学习打卡营第14天 | 文本解码原理--以MindNLP为例

本章学习为主,原理转自官方文档。

2024-07-02 12:30:06 768

原创 昇思25天学习打卡营第13天 | 基于MindSpore通过GPT实现情感分类

【代码】昇思25天学习打卡营第13天 | 基于MindSpore通过GPT实现情感分类。

2024-07-01 23:27:41 165

原创 昇思25天学习打卡营第12天 | 基于 MindSpore 实现 BERT 对话情绪识别

自己输入推理数据,展示模型的泛化能力。predict("家人们谁懂啊")inputs: '家人们谁懂啊', predict: '中性'

2024-06-30 19:55:17 163

原创 昇思25天学习打卡营第11天 | 基于MindSpore的GPT2文本摘要

本章节训练时间较长,建议使用高规格算力进行实验。实验流程流程:下载数据集 -> 构建模型 -> 模型训练 -> 推理涉及新概念:动态学习率(在模型构建环节)

2024-06-29 21:18:10 183

原创 昇思25天学习打卡营第10天 | 基于Mindspore的红酒分类

KNN算法的实现依赖于样本之间的距离,其中最常用的距离函数就是欧氏距离(欧几里得距离)。RnRn空间中的两点xxx和yyydxy∑i1nxi−yi2dxyi1∑n​xi​−yi​2​需要特别注意的是,使用欧氏距离时,应将特征向量的每个分量归一化,以减少因为特征值的尺度范围不同所带来的干扰,否则数值小的特征分量会被数值大的特征分量淹没。其它的距离计算方式还有Mahalanobis距离、Bhattacharyya距离等。

2024-06-28 18:47:56 847

原创 昇思25天学习打卡营第9天 | 使用静态图加速

动态图的特点是计算图的构建和计算同时发生(Define by run),其符合Python的解释执行方式,在计算图中定义一个Tensor时,其值就已经被计算且确定,因此在调试模型时较为方便,能够实时得到中间结果的值,但由于所有节点都需要被保存,导致难以对整个计算图进行优化。在MindSpore中,静态图模式又被称为Graph模式,在Graph模式下,基于图优化、计算图整图下沉等技术,编译器可以针对图进行全局的优化,获得较好的性能,因此比较适合网络固定且需要高性能的场景。在图模式下,可以通过使用。

2024-06-27 16:32:37 536

原创 昇思25天学习打卡营第8天 | 保存与加载

MindIR同时保存了Checkpoint和模型结构,因此需要定义输入Tensor来获取输入shape。除Checkpoint外,MindSpore提供了云侧(训练)和端侧(推理)统一的。day 1最后有使用到下面两个保存和加载的参数,下面贴个代码稍微回忆即可。是未被加载的参数列表,为空时代表所有参数均加载成功。同上这里会导出一个.mindir文件到目录。快速构造神经网络模型(day 5 内容)接口直接将模型保存为MindIR。已有的MindIR模型可以通过。在目录中可以看到该文件。

2024-06-26 10:01:37 311

原创 昇思25天学习打卡营第7天 | 模型训练

nn.ReLU(),nn.ReLU(),以下为概念为官方文档解释。

2024-06-25 12:45:17 568

原创 # 昇思25天学习打卡营第6天 | 函数式自动微分

神经网络的训练主要使用反向传播算法,模型预测值(logits)与正确标签(label)送入损失函数(loss function)获得loss,然后进行反向传播计算,求得梯度(gradients),最终更新至模型参数(parameters)。自动微分能够计算可导函数在某点处的导数值,是反向传播算法的一般化。自动微分主要解决的问题是将一个复杂的数学运算分解为一系列简单的基本运算,该功能对用户屏蔽了大量的求导细节和过程,大大降低了框架的使用门槛。

2024-06-24 19:08:57 541

原创 昇思25天学习打卡营第5天 | 网络构建

当我们定义神经网络时,可以继承nn.Cell类,在__init__方法中进行子Cell的实例化和状态管理,在construct方法中实现Tensor操作。(day1中提到过)construct意为神经网络(计算图)构建,相关内容详见使用静态图加速。nn.ReLU(),nn.ReLU(),定义完网络后创建Network对象,并查看其结构。Network<方法不可直接调用。logits在此基础上,我们通过一个nn.Softmax层实例来获得预测概率。

2024-06-23 09:43:34 351

原创 昇思25天学习打卡营第4天 | 数据变换 Transforms

通常情况下,直接加载的原始数据并不能直接送入神经网络进行训练,此时我们需要对其进行数据预处理。MindSpore提供不同种类的数据变换(Transforms),配合数据处理Pipeline来实现数据预处理。所有的Transforms均可通过map方法传入,实现对指定数据列的处理。

2024-06-22 17:57:03 626

原创 昇思25天学习打卡营第3天 | 数据集 Dataset

可随机访问数据集是实现了和__len__方法的数据集,表示可以通过索引/键直接访问对应位置的数据样本。# 查找列名为data的数据。

2024-06-21 20:18:33 474

原创 昇思25天学习打卡营第2天 | 张量 Tensor

张量(Tensor)是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在n维空间内,有nr个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。r称为该张量的秩或阶(与矩阵的秩和阶均无关系)。张量是一种特殊的数据结构,与数组和矩阵非常相似。张量()是MindSpore网络运算中的基本数据结构。

2024-06-20 10:56:54 715

原创 昇思25天学习打卡营第1天 | 快速入门

深度学习大致流程如下下载、处理数据集 -> 网络构建 -> 模型训练 -> 保存、加载模型数据处理使用map函数进行变换,datapipe函数打包成固定大小的batch。使用或对数据集进行迭代访问,查看数据和标签的shape和datatype。网络构建继承nn.cell类,通过重写__init__和construct方法自定义网络,其中construct方法包含数据变换过程模型训练训练流程正向计算:模型预测结果(logits),并与正确标签(label)求预测损失(loss)。

2024-06-19 19:26:18 776

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除