自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(27)
  • 收藏
  • 关注

原创 《昇思25天学习打卡营第25天|文本解码原理--以MindNLP为例》

文本解码是自然语言处理(NLP)中的一个关键步骤,用于将模型生成的向量表示转化为可读的文本。

2024-07-22 21:45:38 708

原创 《昇思25天学习打卡营第24天|基于 MindSpore 实现 BERT 对话情绪识别》

BERT(Bidirectional Encoder Representations from Transformers)是一个预训练的语言表示模型,可以应用于多种自然语言处理任务,包括对话情绪识别。BERT 通过双向 Transformer 编码器,能同时考虑句子中每个词的前后文信息,从而生成更为丰富的语义表示。

2024-07-21 23:30:40 1186

原创 《昇思25天学习打卡营第23天|RNN实现情感分类》

递归神经网络(RNN)是一种用于处理序列数据的神经网络,它通过隐藏状态(hidden state)将前一个时间步的信息传递到下一个时间步,从而捕捉序列中的依赖关系。尽管RNN在理论上可以处理任意长度的序列,但在实践中往往会遇到梯度消失和梯度爆炸问题,特别是在处理长序列时。RNN(循环神经网络)循环神经网络(Recurrent Neural Network, RNN)是一类以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的神经网络。

2024-07-21 03:20:42 992

原创 《昇思25天学习打卡营第22天|LSTM+CRF序列标注》

序列标注(Sequence Labeling)在自然语言处理(NLP)领域中是一项关键技术,序列标注通过为序列中的每个元素分配一个标签,帮助计算机理解和处理自然语言中的各种信息,为进一步的语言处理和理解打下基础。序列标注指给定输入序列,给序列中每个Token进行标注标签的过程。序列标注问题通常用于从文本中进行信息抽取,包括分词(Word Segmentation)、词性标注(Position Tagging)、命名实体识别(Named Entity Recognition, NER)等。如上表所示,

2024-07-20 01:27:57 1295

原创 《昇思25天学习打卡营第21天|Pix2Pix实现图像转换》

Pix2Pix 是一种图像转换模型,使用条件生成对抗网络(Conditional Generative Adversarial Networks,cGANs)实现图像到图像的转换。它主要由生成器(Generator)和判别器(Discriminator)两部分组成。

2024-07-19 00:26:28 491

原创 《昇思25天学习打卡营第20天|GAN图像生成》

生成对抗网络(GAN)是一种深度学习模型,用于生成逼真的图像。在手写数字识别的任务中,GAN 可以用来生成与真实手写数字相似的图像,以增强模型的训练数据集。GAN 主要由两个部分组成:生成器(Generator)和判别器(Discriminator)。

2024-07-17 23:37:41 476

原创 《昇思25天学习打卡营第19天|Diffusion扩散模型》

什么是Diffusion Model?什么是Diffusion Model?¶如果将Diffusion与其他生成模型(如Normalizing Flows、GAN或VAE)进行比较,它并没有那么复杂,它们都将噪声从一些简单分布转换为数据样本,Diffusion也是从纯噪声开始通过一个神经网络学习逐步去噪,最终得到一个实际图像。Diffusion对于图像的处理包括以下两个过程:我们选择的固定(或预定义)正向扩散过程 𝑞𝑞 :它逐渐将高斯噪声添加到图像中,直到最终得到纯噪声。

2024-07-16 22:10:59 823

原创 《昇思25天学习打卡营第19天|DCGAN生成漫画头像》

DCGAN 由 Radford 等人在 2015 年提出,是一种使用深度卷积网络(CNN)的 GAN 变体。DCGAN 的主要思想是用卷积网络代替传统 GAN 中的全连接网络,以提高生成图像的质量和稳定性。

2024-07-16 02:15:26 747

原创 《昇思25天学习打卡营第18天|CycleGAN图像风格迁移互换》

CycleGAN 是一种生成对抗网络(GAN)的变体,用于图像到图像的转换任务。与传统的 GAN 不同,CycleGAN 能够在没有成对训练样本的情况下,将一种风格的图像转换为另一种风格。它通过两个生成器和两个判别器的协同工作,实现图像风格的互换。

2024-07-15 00:54:16 786

原创 《昇思25天学习打卡营第18天|基于MobileNetv2的垃圾分类》

在训练MobileNetV2之前对MobileNetV2Backbone层的参数进行了固定,使其在训练过程中对该模块的权重参数不进行更新;加载模型Checkpoint进行推理,使用load_checkpoint接口加载数据时,需要把数据传入给原始网络,而不能传递给带有优化器和损失函数的训练网络。每打印一个epoch后模型都会在测试集上的计算测试精度,从打印的精度值分析MobileNetV2模型的预测能力在不断提升。在进行正式的训练之前,定义训练函数,读取数据并对模型进行实例化,定义优化器和损失函数。

2024-07-14 03:26:21 800

原创 《昇思25天学习打卡营第17天|K近邻算法实现红酒聚类》

K近邻算法(K-Nearest-Neighbor, KNN)是一种用于分类和回归的非参数统计方法,最初由 Cover和Hart于1968年提出是机器学习最基础的算法之一。它正是基于以上思想:要确定一个样本的类别,可以计算它与所有训练样本的距离,然后找出和该样本最接近的k个样本,统计出这些样本的类别并进行投票,票数最多的那个类就是分类的结果。KNN的三个基本要素:K值,一个样本的分类是由K个邻居的“多数表决”确定的。K值越小,容易受噪声影响,反之,会使类别之间的界限变得模糊。

2024-07-13 02:45:01 413

原创 《昇思25天学习打卡营第16天|基于MindNLP+MusicGen生成自己的个性化音乐》

核心是一个生成模型,通常是基于生成对抗网络(GANs)或变分自编码器(VAEs)等深度学习模型。:将输入的文本数据转换为适合模型处理的格式,用户输入的文本描述作为输入传递给一个固定的文本编码器模型,以获得一系列隐形状态表示。常见的方法包括词袋模型、TF-IDF、词嵌入(如Word2Vec、GloVe、BERT等)。:使用提取的特征训练机器学习或深度学习模型,以执行特定的NLP任务(如情感分析、文本分类等)。MusicGen 是一个音乐生成工具,它基于深度学习模型,能够根据输入文本或其他数据生成音乐。

2024-07-12 02:36:31 401

原创 《昇思25天学习打卡营第15天|Vision Transformer图像分类》

随着基于自注意(Self-Attention)结构的模型的发展,特别是Transformer模型的提出,极大地促进了自然语言处理模型的发展。由于Transformers的计算效率和可扩展性,它已经能够训练具有超过100B参数的空前规模的模型。ViT则是自然语言处理和计算机视觉两个领域的融合结晶。在不依赖卷积操作的情况下,依然可以在图像分类任务上达到很好的效果。ViT(Vision Transformer)模型是由Google在2020年提出的一种用于图像分类的深度学习模型。它将图像处理问题转化为序列处理问题

2024-07-11 02:55:49 911

原创 《昇思25天学习打卡营第14天|SSD目标检测》

SSD(Single Shot MultiBox Detector)是一种用于目标检测的深度学习算法。它的设计旨在同时检测多个对象,并确定它们在图像中的位置和类别。与其他目标检测算法相比,SSD具有速度快和精度高的特点,在实时检测应用中非常受欢迎。SSD(Single Shot MultiBox Detector)目标检测算法通过一个前向传递过程完成对象检测和边界框预测。它的设计使其能够在保持高精度的同时实现实时检测。

2024-07-10 02:16:29 550

原创 《昇思25天学习打卡营第13天|ShuffleNet图像分类》

ShuffleNet是一种用于深度学习的轻量级神经网络架构,主要设计目标是提高计算效率和降低计算成本,特别适用于移动设备和嵌入式系统等资源受限的环境。(Grouped Convolution)和:将卷积分为多个组,每个组独立进行卷积运算,从而大幅减少计算量和参数量。ShuffleNet通过这两种操作有效地在减少计算量的同时保持了较高的准确性。其典型应用包括图像分类、目标检测等任务。

2024-07-09 03:34:21 476

原创 《昇思25天学习打卡营第12天|ResNet50图像分类》

在ResNet网络提出之前,传统的卷积神经网络都是将一系列的卷积层和池化层堆叠得到的,但当网络堆叠到一定深度时,就会出现退化问题。下图是在CIFAR-10数据集上使用56层网络与20层网络训练误差和测试误差图,由图中数据可以看出,56层网络比20层网络训练误差和测试误差更大,随着网络的加深,其误差并没有如预想的一样减小。ResNet网络提出了残差网络结构(Residual Network)来减轻退化问题,使用ResNet网络可以实现搭建较深的网络结构(突破1000层)。

2024-07-08 03:22:19 816

原创 《昇思25天学习打卡营第11天|ResNet50迁移学习》

在预训练模型的基础上添加自定义的分类层,以适应新的分类任务。

2024-07-06 23:51:15 442

原创 《昇思25天学习打卡营第10天|FCN图像语义分割》

FCN主要用于图像分割领域,是一种端到端的分割方法,是深度学习应用在图像语义分割的开山之作。通过进行像素级的预测直接得出与原图大小相等的label map。因FCN丢弃全连接层替换为全卷积层,网络所有层均为卷积层,故称为全卷积网络。全卷积神经网络主要使用以下三种技术:卷积化(Convolutional)使用VGG-16作为FCN的backbone。VGG-16的输入为224*224的RGB图像,输出为1000个预测值。VGG-16只能接受固定大小的输入,丢弃了空间坐标,产生非空间输出。

2024-07-05 23:56:02 215

原创 《昇思25天学习打卡营第9天|使用静态图加速》

背景介绍 什么是AI编译框架,有什么好处? AI编译框架是连接深度学习模型和硬件加速器(如GPU、TPU)的桥梁。它负责将高级语言编写的深度学习模型转换为可在特定硬件上高效执行的底层代码。 性能优化: 硬件加速: AI编译框架能够将模型中的运算映射到硬件加速器上,充分利用硬件的并行计算能力,从而大幅提升模型的运行速度。 算子优化: 框架可以对模型中的算子进行优化,如算子融合、内存布局优化等,减少计算冗余和内存占用,进一步提高计算效率。 量化和剪枝: 一些框架支

2024-07-04 23:56:44 894

原创 《昇思25天学习打卡营第8天| 模型的保存与加载》

在训练网络模型的过程中,实际上我们希望保存中间和最后的结果,用于微调(fine-tune)和后续的模型推理与部署。

2024-07-03 23:45:40 268

原创 《昇思25天学习打卡营第7天|模型训练》

构造函数,初始化网络层。: 创建一个Flatten层,将输入图像展平为一维向量。: 创建一个SequentialCell容器,按顺序包含以下层:: 全连接层,输入维度是 28x28 (MNIST图像尺寸),输出维度是 512。nn.ReLU(): ReLU激活函数。: 全连接层,输入维度和输出维度都是 512。nn.ReLU(): ReLU激活函数。: 全连接层,输入维度是 512,输出维度是 10 (MNIST的类别数)。: 定义模型的前向传播过程。: 将输入图像展平。

2024-07-02 18:01:42 998

原创 《昇思25天学习打卡营第6天|函数式自动微分》

反向传播算法的目的是通过不断调整神经网络的参数,使得模型在训练数据上的损失最小化。这相当于让模型从错误中学习,逐渐提高其对数据的拟合能力和泛化能力。反向传播算法通常用在神经网络的训练环节。最后,函数返回计算得到的。接着,定义了一个名为。

2024-07-02 01:54:14 995

原创 《昇思25天学习打卡营第5天|网络构建》

之前学习了数据的预处理,那现在就要开始把数据放入到神经网络中去训练。这其中需要对神经网络进行构建,包括一些参数如激活函数、损失函数、全连接层、展开层等虽然 本身并不直接影响模型的计算能力,但它通过改变数据的形状,使得后续的全连接层能够更有效地处理特征,从而间接地影响模型的性能。

2024-07-01 00:48:07 868

原创 《昇思25天学习打卡营第4天|数据变换 Transforms》

is_hwc:bool值,输入图像的格式。True为(高度,宽度,通道),False为(通道,高度,宽度)。

2024-06-29 22:53:08 507

原创 《昇思25天学习打卡营第3天|数据集的基本操作》

可随机访问数据集是实现了和__len__方法的数据集。表示可以通过索引/键直接访问对应位置的数据样本。例如,当使用访问这样的数据集时,可以读取dataset内容中第idx个样本或标签。可迭代的数据集是实现了__iter__和__next__方法的数据集,表示可以通过迭代的方式逐步获取数据样本。这种类型的数据集特别适用于随机访问成本太高或者不可行的情况。例如,当使用的形式访问数据集时,可以读取从数据库、远程服务器返回的数据流。生成器。

2024-06-28 22:14:17 396

原创 《昇思25天学习打卡营第2天|初识张量 Tensor》

张量的秩表示数据结构的维度,而矩阵的秩则是矩阵中线性独立行或列的最大数量。张量的秩(也称为阶)表示张量的维度数。

2024-06-27 22:45:25 934

原创 昇思25天学习打卡营第1天|模型训练的基本步骤

在mindspore,简单实现手写数字图像识别

2024-06-26 22:15:04 1044

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除