自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(26)
  • 收藏
  • 关注

原创 昇思Mindspore25天学习打卡Day25:RNN实现情感分类/自然语音处理

情感分类是自然语言处理中的经典任务,是典型的分类问题。本节使用MindSpore实现一个基于RNN网络的情感分类模型,实现如下的效果:输入: This film is terrible正确标签: Negative预测标签: Negative输入: This film is great正确标签: Positive预测标签: Positive最后我们设计一个预测函数,实现开头描述的效果,输入一句评价,获得评价的情感分类。将输入句子进行分词;使用词表获取对应的index id序列;

2024-07-15 02:07:31 1075

原创 昇思Mindspore25天学校Day24:LSTM+CRF序列标注

序列标注指给定输入序列,给序列中每个Token进行标注标签的过程。序列标注问题通常用于从文本中进行信息抽取,包括分词(Word Segmentation)、词性标注(Position Tagging)、命名实体识别(Named Entity Recognition, NER)等。输入序列清华大学座落于首都北京输出标注BIIIOOOOOBI如上表所示,清华大学和北京是地名,需要将其识别,我们对每个输入的单词预测其标签,最后根据标签来识别实体。

2024-07-14 15:09:58 887

原创 昇思Mindspore25天学习Day23:Pix2Pix实现图像转换

Pix2Pix是基于条件生成对抗网络(cGAN, Condition Generative Adversarial Networks )实现的一种深度学习图像转换模型,该模型是由Phillip Isola等作者在2017年CVPR上提出的,可以实现语义/标签到真实图片、灰度图到彩色图、航空图到地图、白天到黑夜、线稿图到实物图的转换。生成器和判别器。传统上,尽管此类任务的目标都是相同的从像素预测像素,但每项都是用单独的专用机器来处理的。

2024-07-13 00:55:32 662

原创 昇思Mindsport25天学习打卡Day22:GAN图像生成

生成式对抗网络(Generative Adversarial Networks,GAN)是一种生成式机器学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。生成器的任务是生成看起来像训练图像的“假”图像;判别器需要判断从生成器输出的图像是真实的训练图像还是虚假的图像。GAN通过设计生成模型和判别模型这两个模块,使其互相博弈学习产生了相当好的输出。GAN模型的核心在于提出了通过对抗过程来估计生成模型这一全新框架。在这个框架中,将会同时训练两个模型——捕捉数据分布的生成模型GGG。

2024-07-12 12:42:45 681

原创 昇思Mindspore25天学习打卡Day21:Diffusion扩散模型

如果将Diffusion与其他生成模型(如Normalizing Flows、GAN或VAE)进行比较,它并没有那么复杂,它们都将噪声从一些简单分布转换为数据样本,Diffusion也是从纯噪声开始通过一个神经网络学习逐步去噪,最终得到一个实际图像。我们选择的固定(或预定义)正向扩散过程qqq:它逐渐将高斯噪声添加到图像中,直到最终得到纯噪声一个学习的反向去噪的扩散过程pθp_θpθ​:通过训练神经网络从纯噪声开始逐渐对图像去噪,直到最终得到一个实际的图像-由ttt。

2024-07-10 22:36:28 932

原创 昇思Mindspore25天学习打卡Day20:DCGAN生成漫画头像

在下面的教程中,我们将通过示例代码说明DCGAN网络如何设置网络、优化器、如何计算损失函数以及如何初始化模型权重。在本教程中,使用的动漫头像数据集共有70,171张动漫头像图片,图片大小均为96*96.

2024-07-09 15:37:39 645

原创 昇思MindSpore25天学习Day19:CycleGAN图像风格迁移互换

该模型实现了—种在没有配对示例的情况下学习将图像从源域×转换到目标域Y的方法。该模型一个重要应用领城是域迁移(Dom in Adaptation),可以通俗地理解为图像风格迁移。其实在CycieGAV之前,就已经有了域迁移模型,比以D Pi2Pk,但是Pi2Fik要求训练数据必须是成对的,而现实生活中,要找到两个城(画风)中成对出现的图片是相当困难的,因此 CyclCGAN诞生了,它只需要两种域的数据,而不需要他们有严格对应关系,是一种新的无监督的图像迁移网络。

2024-07-08 08:59:10 914

原创 昇思Mindspore25天学习打卡Day18:基于MobileNet2的垃圾分类

MobileNet网络是由Google团队于2017年提出的专注于移动端、嵌入式或IoT设备的轻量级CNN网络,相比于传统的卷积神经网络,MobileNet网络使用深度可分离卷积(Depthwise Separable Convoltion)的思想在准确率小幅度降低的前提下,大大减小了模型参数与运算量,并引入宽度系数α\alphaα和分辦率系数β\betaβ使模型满足不同应用场景的需求.

2024-07-06 05:29:47 711

原创 昇思MindSpore25天学习打卡Day17:K近邻算法实现红酒聚类

K近邻算法(K-Nearest-Neighbor, KNN)是一种用于分类和回归的非参数统计方法,最初由 Cover和Hart于1968年提出(Cover等人,1967),是机器学习最基础的算法之一。它正是基于以上思想:要确定一个样本的类别,可以计算它与所有训练样本的距离,然后找出和该样本最接近的k个样本,统计出这些样本的类别并进行投票,票数最多的那个类就是分类的结果。K值,一个样本的分类是由K个邻居的"多数表决“确定的。K值越小,容易受噪声影响,反之,会使类别之间的界限变得模糊。

2024-07-05 11:03:24 921

原创 昇思Mindspore学习25天打卡Day16:热门LLM及其他AI应用|基于MindeNLP+MusicGen生成自己的个性化音乐

MusicGen是来自Meta Al的Jade Copet等人提出的基于单个语言模型(LM)的音乐生成模型,能够根据文本描述或音频提示生成高质量的音乐样本,相关研密成果参考论文MusicGen直接使用谷歌的t5-base及其权重作为文本编阳器模型,并使用Encodec 32KH2及其汉重作为音频压缩模型,MuscGen解码器是一个语言模型架构,针对音乐生成任务从零开始进行训练。MusicGen模型的新颖之处在于音顿代码的预测方式。

2024-07-03 22:37:19 947

原创 昇思Mindspore25天学习打卡Day15:Vision Transform图像分类

近些年,随着基于自注意(Self-Attention)结构的模型的发展,特别是Transformer模型的提出,极大地促进了自然语言处理模型的发展。由于Transformers的计算效率和可扩展性,它已经能够训练具有超过100B参数的空前规模的型ViT则是自然语言处理和计算机视觉两个领域的融合结晶。在不依赖卷积操作的情况下,依然可以在图像分类任务上达到很好的效果。本案例完成了一个ViT模型在lmageNet数据上进行训练,验证和推理的过程,其中,对关键的VT模型结构和原理作了讲解。

2024-07-03 07:03:51 575

原创 昇思Mindspore25天学习打卡Day14:SSD目标检测

SSD,全称Single Shot MultiBox Detector,是Wei Liu在ECCV 2016上提出的一种目标检测算法。使用NvidiaTitan X在VOC 2007测试集上,SSD对于输入尺寸300x300的网络,达到74.3%mAP(mean Average Precision)以及59FPS:对于512x512的网络,达到了76,9%mAP,超越当时最强的Faster RCNN(73.2%mAP)。具体可参考论文[1]。SSD目标检测主流算法分成可以两个类型。

2024-07-01 23:35:36 793

原创 昇思Mindspore学习25天打卡Day13:ShuffleNet图像分类

ShuffleNetV1是旷视科技提出的一种计算高效的CNN模型,和MobileNet SqueezeNet等一样主要应用在移动端,所以模型的设计目标就是利用有限的计算资源来达到最好的模型精度。ShuffleNetV1的设计核心是引入了两种操作: Pointwise Group Convolution和Channel Shuffle,这在保持精度的同时大大降低了模型的计算量。因此,ShufleNetV1和MobileNet类似,都是通过设计更高效的网络结构来实现模型的压缩和加速。

2024-07-01 06:28:46 558

原创 昇思Mindspore学习25天打卡Day12:ResNet50迁移

从mindspore.dataset.ImageFolderDataset 接口中加载的训练数据集返回值为字典,用户可通过create_dict_iterator 接口创建数据迭代器,使用next迭代访问数据集。狼狗数据集提取自lmageNet分类数据集,使用mindspore.dataset.ImageFolderDataset 接口来加载数据集,并进行相关图像增强操作。搭建好模型框架后,通过将pretrained参数设置为True来下载ResNet50的预训练模型并将权重参数加载到网络中。

2024-06-30 06:35:36 799

原创 昇思MindSpore学习25天打卡Day11:ResNet50图像分类

ResNet50网络是2015年由微软实验室的何恺明提出,获得ILSVRC2015图像分类竞赛第一名。在ResNet网络提出之前,传统的卷积神经网络都是将一系列的卷积层和池化层堆叠得到的,但当网络堆叠到—定深度时,就会出现退化问题。下图是在CIFAR-10数据集上使用56层网络与20层网络训练误差和测试误差图,由图中数据可以看出,56层网络比20层网络训练误差和测试误差更大随着网络的加深,其误差并没有如预想的—样减小。ResNet网络提出了残差网络结构(Residual Networks)来减轻退化问题。

2024-06-29 19:03:17 599

原创 昇思MindSpore学习25天Day10:FCN图像语义分割

FCN主要用于图像分制领域,是一种端到端的分割方法,是深度学习应用在图像语义分割的开山之作,通过进行像素级的预测直接得出与原图大小相等的label map、因FCN丢弃全连接层替换为全卷积层,网络所有层均为卷积层,故称为全卷积网络。这一部分主要对训练出来的模型效果进行评估,为了便于解释,假设如下:共有k+1个类(从L0到L1,其中包含一个空类或者背景),pij表示本属于i类但被预测为j类的像素数量。即,pij表示真正的数量,而pijpji则分别被解释为假正和假负,尽管两者都是假正和假负之和。

2024-06-29 05:59:04 752

原创 昇思学习25天打卡Day9:使用静态图加速

AJ编译框架分为两种运行模式,分别是动态图模式以及静态图模式。MindSpore默认情况下是以动态图模式运行,但也支持手工切换为静态图模式。

2024-06-27 19:35:43 704

原创 昇思学习25天打卡,Day8:保存与加载

在学习了如何调整超参数,并进行网络模型训练之后,在训练网络模型的过程中,实际上我们希望保存中间和最后的结果,用于微调(fine-tune)和后续的模型推理与部署,今天将学习如何保存与加载模型。

2024-06-27 08:10:36 337

原创 昇思Mindspore25天学习打卡Day7:模型训练

从网络构建中加载代码,构建一个神经网络模型。超参(Hyperparameters)是可以调整的参数,可以控制模型训练优化的过程,不同的超参数值可能会影响模型训练和收敛速度。目前深度学习模型多采用批量随机梯度下降算法进行优化,随机梯度下降算法的原理如下:公式中,n是批量大小(batch size),m是学习率(learning rate)。另外,wt为训练轮次t中的权重参数,VI为损失函数的导数。除了梯度本身,这两个因子直接决定了模型的权重更新,从优化本身来看,它们是影响模型性能收敛最重要的参数。

2024-06-25 21:01:34 788

原创 昇思25天学习打卡Day6:函数式自动微分

自动微分主要解决的问题是将一个复杂的数学运算分解为一系列简单的基本运算,该功能对用户屏蔽了大量的求导细节和过程,大大降低了框架的使用门槛。and_grad 提供 has_aux 参数,当其设置为 True时,可以自动实现前文手动添加 stop_gradient 的功能,满足返回辅助数据的同时不影响梯度计算的效果。通常我们会将函数的loss设置为函数的第一个输出,其他的输出即为辅助数据。可以看到,求得w、b对应的梯度值与初始 function 求得的梯度值一致,同时z能够作为微分函数的输出返回。

2024-06-25 06:07:18 814

原创 昇思25天学习打卡:Day5:网络构建

使用mindspore.nn构建神经网络层

2024-06-24 06:30:58 275

原创 昇思25天学习打卡Day4:数据变换Transforms

通常情况下,原始数据不能直接进入神经网络进行训练,需要对其进行数据预处理。MindSport提供不同种类的数据变换Transforms,配合数据处理Pipeline来实现数据预处理。所有的Transforms均可通过map方法传入,实现对指定数据列的处理。mindspore.dataset提供了面向图像、文本、音频等不同数据类型的Transforms,同时也支持使用Lambda函数。下面分别进行介绍。

2024-06-22 10:59:46 961

原创 昇思25天打卡-Day3:数据集Dataset

数据集Dataset

2024-06-22 02:49:41 781

原创 昇思25天打卡学习Day2:张量Tensor

其中, indices表示非零下标元素,values表示非零元素的值,shape表示的是被压缩的稀疏张量的形状。coo (Coordinate Format)稀疏张量格式用来表示某一张量在给定索引上非零元素的集合,若非零元素的个数为N,被压缩的张量的维数为ndims。indices :一维整数张量,表示稀疏张量非零元素在列中的位置,与values长度相等,索引数据类型支持int16、int32、int64。张量的属性包括形状、数据类型、转置张量、单个元素大小、占用字节数量、维数、元素个数和每一维步长。

2024-06-21 08:38:06 730

原创 昇思25天学习打卡-Day1:基础及入门

Mindspore25天打卡,day1.入门训练,打上自己标签和时间

2024-06-20 08:41:26 419

原创 三角函数-初级-基础|特殊的三角函数值

思考的基础,三角函数

2024-05-29 05:09:40 842 1

pix2pix用到的指定数据集

pix2pix用到的指定数据集

2024-07-12

实验指导与报告实验指导与报告实验指导与报告

实验指导与报告

2024-07-11

faces.zip动漫头像数据集

faces.zip动漫头像数据集

2024-07-09

MindeNLP+MusicGen-切片填充

MindeNLP+MusicGen-切片填充

2024-07-03

MindeNLP+MusicGen-音频提示生成

MindeNLP+MusicGen-音频提示生成

2024-07-03

MindeNLP+MusicGen-文本提示音

MindeNLP+MusicGen-文本提示音

2024-07-03

MusicGen1-无提示生成的声音

MusicGen-无提示生成的声音

2024-07-03

ResNet50的预训练模型(昇思Mindspore学习25天打卡Day12:ResNet50迁移)

ResNet50的预训练模型(昇思Mindspore学习25天打卡Day12:ResNet50迁移)

2024-06-30

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除