自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(18)
  • 收藏
  • 关注

原创 昇思第18天打卡|ShuffleNet图像分类

ShuffleNetV1是旷视科技提出的一种计算高效的CNN模型,和MobileNet, SqueezeNet等一样主要应用在移动端,所以模型的设计目标就是利用有限的计算资源来达到最好的模型精度。ShuffleNetV1的设计核心是引入了两种操作:Pointwise Group Convolution和Channel Shuffle,这在保持精度的同时大大降低了模型的计算量。因此,ShuffleNetV1和MobileNet类似,都是通过设计更高效的网络结构来实现模型的压缩和加速。

2024-07-07 00:12:41 581

原创 昇思大模型第17天打卡|ResNet50图像分类

ResNet50网络是2015年由微软实验室的何恺明提出,获得ILSVRC2015图像分类竞赛第一名。在ResNet网络提出之前,传统的卷积神经网络都是将一系列的卷积层和池化层堆叠得到的,但当网络堆叠到一定深度时,就会出现退化问题。下图是在CIFAR-10数据集上使用56层网络与20层网络训练误差和测试误差图,由图中数据可以看出,56层网络比20层网络训练误差和测试误差更大,随着网络的加深,其误差并没有如预想的一样减小。

2024-07-05 23:59:36 598

原创 昇思大模型第16天|ResNet50迁移学习

ResNet50迁移学习。

2024-07-05 00:34:02 207

原创 昇思大模型第15天打卡|基于MobileNetv2的垃圾分类

MobileNet网络是由Google团队于2017年提出的专注于移动端、嵌入式或IoT设备的轻量级CNN网络,相比于传统的卷积神经网络,MobileNet网络使用深度可分离卷积(Depthwise Separable Convolution)的思想在准确率小幅度降低的前提下,大大减小了模型参数与运算量。并引入宽度系数 α和分辨率系数 β使模型满足不同应用场景的需求。

2024-07-04 00:02:58 713

原创 昇思大模型第|K近邻算法实现红酒聚类

K近邻算法(K-Nearest-Neighbor, KNN)是一种用于分类和回归的非参数统计方法,最初由 Cover和Hart于1968年提出(Cover等人,1967),是机器学习最基础的算法之一。它正是基于以上思想:要确定一个样本的类别,可以计算它与所有训练样本的距离,然后找出和该样本最接近的k个样本,统计出这些样本的类别并进行投票,票数最多的那个类就是分类的结果。KNN的三个基本要素:K值,一个样本的分类是由K个邻居的“多数表决”确定的。K值越小,容易受噪声影响,反之,会使类别之间的界限变得模糊。

2024-07-02 23:23:19 732

原创 昇思大模型第13天打卡|基于MindNLP+MusicGen生成自己的个性化音乐

与传统方法不同,MusicGen采用单个stage的Transformer LM结合高效的token交织模式,取消了多层级的多个模型结构,例如分层或上采样,这使得MusicGen能够生成单声道和立体声的高质量音乐样本,同时提供更好的生成输出控制。MusicGen不仅能够生成符合文本描述的音乐,还能够通过旋律条件控制生成的音调结构。MusicGen是来自Meta AI的Jade Copet等人提出的基于单个语言模型(LM)的音乐生成模型,能够根据文本描述或音频提示生成高质量的音乐样本,相关研究成果参考论文《

2024-07-01 23:38:35 554

原创 昇思大模型第12天打卡|ResNet50迁移学习

普遍的做法是,在一个非常大的基础数据集上训练得到一个预训练模型,然后使用该模型来初始化网络的权重参数或作为固定特征提取器应用于特定的任务中。要深入学习MindSpore ResNet50迁移学习,需要熟练掌握MindSpore的基本使用方法,如数据预处理、模型加载、参数更新等。开始训练模型,与没有预训练模型相比,将节约一大半时间,因为此时可以不用计算部分梯度。迁移学习的核心思想是将一个领域中已经训练好的模型应用于另一个领域,通过微调来适应新领域的数据分布。接口中加载的训练数据集返回值为字典,用户可通过。

2024-07-01 00:02:39 226

原创 昇思大模型第11天|FCN图像语义分割

FCN主要用于图像分割领域,是一种端到端的分割方法,是深度学习应用在图像语义分割的开山之作。通过进行像素级的预测直接得出与原图大小相等的label map。因FCN丢弃全连接层替换为全卷积层,网络所有层均为卷积层,故称为全卷积网络。全卷积神经网络主要使用以下三种技术:卷积化(Convolutional)使用VGG-16作为FCN的backbone。VGG-16的输入为224*224的RGB图像,输出为1000个预测值。VGG-16只能接受固定大小的输入,丢弃了空间坐标,产生非空间输出。

2024-06-30 00:28:22 626

原创 昇思大模型第10天打卡|使用静态图加速

AI编译框架分为两种运行模式,分别是动态图模式以及静态图模式。MindSpore默认情况下是以动态图模式运行,但也支持手工切换为静态图模式。

2024-06-28 22:31:54 608

原创 昇思大模型第9天|保存与加载

通过学习MindSpore的模型保存与加载,我们可以更好地掌握深度学习模型的开发和部署。在实际应用中,要根据需求选择合适的保存格式,并在加载模型时确保模型文件格式与保存时的一致。在训练网络模型的过程中,实际上我们希望保存中间和最后的结果,用于微调(fine-tune)和后续的模型推理与部署,本章节我们将介绍如何保存与加载模型。最后,需要注意的是,在学习和使用MindSpore的过程中,要遵守相关法律法规和伦理规范,确保人工智能技术的安全、可控和可持续发展。接口直接将模型保存为MindIR。

2024-06-28 00:12:59 238

原创 昇思大模型第8天打卡|模型训练

从网络构建中加载代码,构建一个神经网络模型。nn.ReLU(),nn.ReLU(),超参(Hyperparameters)是可以调整的参数,可以控制模型训练优化的过程,不同的超参数值可能会影响模型训练和收敛速度。目前深度学习模型多采用批量随机梯度下降算法进行优化,随机梯度下降算法的原理如下:公式中,𝑛𝑛是批量大小(batch size),ηη是学习率(learning rate)。另外,𝑤𝑡𝑤𝑡为训练轮次𝑡𝑡中的权重参数,∇𝑙∇𝑙为损失函数的导数。

2024-06-26 23:16:15 738

原创 昇思大模型第7天打卡|函数式自动微分

自动微分主要解决的问题是将一个复杂的数学运算分解为一系列简单的基本运算,该功能对用户屏蔽了大量的求导细节和过程,大大降低了框架的使用门槛。前述章节主要根据计算图对应的函数介绍了MindSpore的函数式自动微分,但我们的神经网络构造是继承自面向对象编程范式的。我们将实现加入,并执行。为了优化模型参数,需要求参数对loss的导数:∂损失∂w∂损失∂𝑤和∂损失∂b∂损失∂𝑏,此时我们调用函数,来获得的微分函数。可以看到,求得𝑤𝑤、𝑏𝑏对应的梯度值与初始求得的梯度值一致,同时z能够作为微分函数的输出返回。

2024-06-25 23:57:01 619

原创 昇思大模型第6天打卡|网络构建

网络构建神经网络模型是由神经网络层和Tensor操作构成的,提供了常见神经网络层的实现,在MindSpore中,类是构建所有网络的基类,也是网络的基本单元。一个神经网络模型表示为一个,它由不同的子构成。使用这样的嵌套结构,可以简单地使用面向对象编程的思维,对神经网络结构进行构建和管理。定义模型类当我们定义神经网络时,可以继承类,在方法中进行子Cell的实例化和状态管理,在方法中实现Tensor操作。construct意为神经网络(计算图)构建,相关内容详见。构建完成后,实例化对象,并查看其结构。

2024-06-25 00:14:23 316

原创 昇思大模型第五天打卡|数据变换 Transforms

数据变换 Transforms通常情况下,直接加载的原始数据并不能直接送入神经网络进行训练,此时我们需要对其进行数据预处理。MindSpore提供不同种类的数据变换(Transforms),配合数据处理Pipeline来实现数据预处理。所有的Transforms均可通过方法传入,实现对指定数据列的处理。提供了面向图像、文本、音频等不同数据类型的Transforms,同时也支持使用Lambda函数。下面分别对其进行介绍。常见变换模块支持一系列通用Transforms。这里我们以为例,介绍其使用方式。

2024-06-23 23:20:25 766

原创 昇思大模型第二天打卡|数据集Database

心得:通过本节数据集的学习,让我了解了数据集的概念,并对不同的数据集加载方式、数据集常见操作和自定义数据集方法有了一个初步的认知;Pipeline的设计理念使得数据集的常用操作采用的异步执行方式,执行操作返回新的Dataset,此时不执行具体操作,而是在Pipeline中加入节点,最终进行迭代时,并行执行整个Pipeline。对于MindSpore暂不支持直接加载的数据集,可以构造自定义数据加载类或自定义数据集生成函数的方式来生成数据集,然后通过接口实现自定义方式的数据集加载。若设置,访问的数据类型为。

2024-06-22 23:19:19 879

原创 昇思模型第三天打卡|Tensor张量

在某些应用场景中(比如推荐系统、分子动力学、图神经网络等),数据的特征是稀疏的,若使用普通张量表征这些数据会引入大量不必要的计算、存储和通讯开销。常用稀疏张量的表达形式是。张量之间有很多运算,包括算术、线性代数、矩阵处理(转置、标引、切片)、采样等,张量运算和NumPy的使用方式类似,下面介绍其中几种操作。: 一维整数张量,表示稀疏张量非零元素在列中的位置, 与长度相等,索引数据类型支持int16、int32、int64。普通算术运算有:加(+)、减(-)、乘(*)、除(/)、取模(%)、整除(//)。

2024-06-22 00:19:50 1008

原创 昇思25天学习打卡营第2天|快速入门

打印每一轮的loss值和预测准确率(Accuracy),可以看到loss在不断下降,Accuracy在不断提高。心得:通过这一节快速入门的学习让我对mindspore的工具和基本知识有了一个具体的形象,初步开始熟悉相关工具的使用。在本教程中,我们使用Mnist数据集,自动下载完成后,使用提供的数据变换进行预处理。:利用自动微分机制,自动求模型参数(parameters)对于loss的梯度(gradients)。本章节中的示例代码依赖,可使用命令安装。打印数据集中包含的数据列名,用于dataset的预处理。

2024-06-20 23:17:52 281

原创 【昇思25天学习打卡营打卡指南-第一天】基本介绍

昇思MindSpore是一个全场景深度学习框架,旨在实现易开发、高效执行、全场景统一部署三大目标。其中,易开发表现为API友好、调试难度低;高效执行包括计算效率、数据预处理效率和分布式训练效率;全场景则指框架同时支持云、边缘以及端侧场景。ModelZoo(模型库):ModelZoo提供可用的深度学习算法网络,也欢迎更多开发者贡献新的网络(ModelZoo地址MindSpore Extend(扩展库)

2024-06-19 22:03:41 581

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除