【MindSpore】
文章平均质量分 76
25天昇思MindSpore学习打卡。
leifchen90
专注学习,码出高效。
展开
-
昇思25天学习打卡营第13天|基于MindNLP+MusicGen生成自己的个性化音乐
MusicGen是来自Meta AI的Jade Copet等人提出的基于单个语言模型(LM)的音乐生成模型,能够根据文本描述或音频提示生成高质量的音乐样本,相关研究成果参考论文《原创 2024-07-10 19:27:15 · 368 阅读 · 0 评论 -
昇思25天学习打卡营第12天|基于MindSpore通过GPT实现情感分类
本文介绍如何基于MindSpore这套AI开发平台,通过调用GPT实现情感分类。原创 2024-07-09 19:48:47 · 140 阅读 · 0 评论 -
昇思25天学习打卡营第11天|基于MindSpore的GPT2文本摘要
准备nlpcc2017摘要数据,内容为新闻正文及其摘要,总计50000个样本。原创 2024-07-09 16:03:09 · 266 阅读 · 0 评论 -
昇思25天学习打卡营第10天|基于MindSpore实现BERT对话情绪识别
BERT全称是来自变换器的双向编码器表征量(Bidirectional Encoder Representations from Transformers),它是Google于2018年末开发并发布的一种新型语言模型。与BERT模型相似的预训练语言模型例如问答、命名实体识别、自然语言推理、文本分类等在许多自然语言处理任务中发挥着重要作用。模型是基于Transformer中的Encoder并加上双向的结构。原创 2024-07-05 17:20:11 · 838 阅读 · 0 评论 -
昇思25天学习打卡营第9天|使用静态图加速
动态图的特点是计算图的构建和计算同时发生(Define by run),其符合Python的解释执行方式,在计算图中定义一个Tensor时,其值就已经被计算且确定,因此在调试模型时较为方便,能够实时得到中间结果的值,但由于所有节点都需要被保存,导致难以对整个计算图进行优化。在MindSpore中,静态图模式又被称为Graph模式,在Graph模式下,基于图优化、计算图整图下沉等技术,编译器可以针对图进行全局的优化,获得较好的性能,因此比较适合网络固定且需要高性能的场景。原创 2024-07-04 22:28:56 · 901 阅读 · 0 评论 -
昇思25天学习打卡营第8天|模型训练
参考学习打卡营第6天|网络构建,构建一个神经网络模型。nn.ReLU(),nn.ReLU(),超参(Hyperparameters)是可以调整的参数,可以控制模型训练优化的过程,不同的超参数值可能会影响模型训练和收敛速度。wt1wt−η1n∑x∈B∇lxwtwt1wt−ηn1x∈B∑∇lxwt公式中,nnn是批量大小(batch size),ηηη是学习率(learning rate)。另外,原创 2024-07-03 10:15:35 · 604 阅读 · 0 评论 -
昇思25天学习打卡营第7天|函数式自动微分
神经网络的训练主要使用反向传播算法,模型预测值(logits)与正确标签(label)送入损失函数(loss function)获得loss,然后进行反向传播计算,求得梯度(gradients),最终更新至模型参数(parameters)。自动微分能够计算可导函数在某点处的导数值,是反向传播算法的一般化。自动微分主要解决的问题是将一个复杂的数学运算分解为一系列简单的基本运算,该功能对用户屏蔽了大量的求导细节和过程,大大降低了框架的使用门槛。原创 2024-07-02 18:53:35 · 483 阅读 · 0 评论 -
昇思25天学习打卡营第6天|网络构建
提供了常见神经网络层的实现,在MindSpore中,Cell类是构建所有网络的基类,也是网络的基本单元。一个神经网络模型表示为一个Cell,它由不同的子Cell构成。使用这样的嵌套结构,可以简单地使用面向对象编程的思维,对神经网络结构进行构建和管理。神经网络模型是由神经网络层和Tensor操作构成的,),这些参数会在训练过程中不断进行优化,可通过。网络内部神经网络层具有权重参数和偏置参数(如。方法中进行子Cell的实例化和状态管理,在。来获取参数名及对应的参数详情。方法中实现Tensor操作。原创 2024-07-01 17:03:04 · 297 阅读 · 0 评论 -
昇思25天学习打卡营第5天|数据变换Transforms
MindSpore提供不同种类的数据变换(Transforms),配合数据处理Pipeline来实现数据预处理。所有的Transforms均可通过map方法传入,实现对指定数据列的处理。mindspore.dataset提供了面向图像、文本、音频等不同数据类型的Transforms,同时也支持使用Lambda函数。原创 2024-06-28 09:47:24 · 484 阅读 · 0 评论 -
昇思25天学习打卡营第4天|数据集Dataset
MindSpore提供基于Pipeline的数据引擎,通过数据集(Dataset)和数据变换(Transforms)实现高效的数据预处理。其中Dataset是Pipeline的起始,用于加载原始数据。mindspore.dataset模块提供了一些常用的公开数据集和标准格式数据集的加载API。对于MindSpore暂不支持直接加载的数据集,可以构造自定义数据加载类或自定义数据集生成函数的方式来生成数据集,然后通过GeneratorDataset接口实现自定义方式的数据集加载。原创 2024-06-27 17:34:45 · 802 阅读 · 0 评论 -
昇思25天学习打卡营第3天|张量Tensor
张量的创建方式有多种,构造张量时,支持传入Tensor、float、int、bool、tuple、list和numpy.ndarray类型。张量(Tensor)是一种特殊的数据结构,与数组和矩阵非常相似。张量是MindSpore网络运算中的基本数据结构。张量之间有很多运算,包括算术、线性代数、矩阵处理(转置、标引、切片)、采样等,张量运算和NumPy的使用方式类似。Tensor索引与Numpy索引类似,索引从0开始编制,负索引表示按倒序编制,冒号:和 …用于对数据进行切片。原创 2024-06-26 18:57:55 · 318 阅读 · 0 评论 -
昇思25天学习打卡营第2天|快速入门
今天通过昇思大模型平台AI实验室提供的在线Jupyter工具,快速入门MindSpore。:通过MindSpore的API快速实现一个简单的深度学习模型。原创 2024-06-25 21:43:10 · 382 阅读 · 0 评论 -
昇思25天学习打卡营第1天|基本介绍
昇思MindSpore是一个全场景深度学习框架,旨在实现易开发、高效执行、全场景统一部署三大目标。原创 2024-06-24 17:00:58 · 390 阅读 · 0 评论