自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(31)
  • 收藏
  • 关注

原创 交通预测数据文件梳理:PEMS04

最近做的实验比较多,对于交通预测数据的各种文件和文件中的数据格式理解愈加混乱,因此打算重新做一遍梳理来加深实验数据集的理解,本文章作为一个记录。注意:本文主要以BasicTS中的数据文件作为例子,因为该工具库整理的数据和模型比较有体系,在此附上github链接和数据集下载路径。网盘密码:6v0aBasicTS官方GithubBasicTS数据集百度网盘下载BasicTS的pems04数据集包含如下4个文件:首先要导库。

2024-08-06 11:19:19 988

原创 交通预测数据文件梳理:PEMS-BAY

最近做的实验比较多,对于交通预测数据的各种文件和文件中的数据格式理解愈加混乱,因此打算重新做一遍梳理来加深实验数据集的理解,本文章作为一个记录。注意:本文主要以BasicTS中的数据文件作为例子,因为该工具库整理的数据和模型比较有体系,在此附上github链接和数据集下载路径。网盘密码:6v0aBasicTS官方GithubBasicTS数据集百度网盘下载。

2024-08-05 22:09:51 434

原创 交通预测数据文件梳理:METR-LA

最近做的实验比较多,对于交通预测数据的各种文件和文件中的数据格式理解愈加混乱,因此打算重新做一遍梳理来加深实验数据集的理解,本文章作为一个记录。注意:本文主要以BasicTS中的数据文件作为例子,因为该工具库整理的数据和模型比较有体系,在此附上github链接和数据集下载路径。网盘密码:6v0aBasicTS官方GithubBasicTS数据集百度网盘下载。

2024-08-05 22:01:40 534

转载 《昇思25天学习打卡营第25天|基本介绍》

本节将会整体介绍昇思MindSpore和华为昇腾AI全栈,并介绍昇思MindSpore在华为昇腾AI全栈中的位置。对昇思MindSpore感兴趣的开发者,最后可以参与昇思MindSpore的社区并一键三连。昇思MindSpore是一个全场景深度学习框架,旨在实现易开发、高效执行、全场景统一部署三大目标。其中,易开发表现为API友好、调试难度低;高效执行包括计算效率、数据预处理效率和分布式训练效率;全场景则指框架同时支持云、边缘以及端侧场景。ModelZoo(模型库)

2024-07-18 10:02:08 35

原创 【学习笔记】einsum(爱因斯坦求和)

einsum 非常强大,但也需要仔细设计输入的 subscripts 字符串,以确保正确执行所需的操作。

2024-07-17 16:42:30 309

原创 《昇思25天学习打卡营第24天|MindNLP ChatGLM-6B StreamChat》

本案例基于MindNLP和ChatGLM-6B实现一个聊天应用。可以修改下列参数和prompt体验模型。下载权重大约需要10分钟。

2024-07-17 10:46:18 147

原创 《昇思25天学习打卡营第23天|ResNet50迁移学习》

迁移学习的核心思想是将源领域的知识迁移到目标领域中。源领域是已经有大量标注数据的领域,而目标领域是需要解决的新问题。通过迁移学习,源领域的知识可以帮助目标领域的学习过程,提高模型的泛化能力和性能。迁移学习可以通过多种方式实现,包括特征提取、模型微调和领域自适应等方法。特征提取是将源领域的特征应用到目标领域中,模型微调是在源模型的基础上对目标模型进行调整,领域自适应则是通过对目标领域进行适应性训练来提高性能。

2024-07-16 10:04:37 1020

原创 《昇思25天学习打卡营第22天|ResNet50图像分类》

ResNet50网络是2015年由微软实验室的何恺明提出,获得ILSVRC2015图像分类竞赛第一名。在ResNet网络提出之前,传统的卷积神经网络都是将一系列的卷积层和池化层堆叠得到的,但当网络堆叠到一定深度时,就会出现退化问题。下图是在CIFAR-10数据集上使用56层网络与20层网络训练误差和测试误差图,由图中数据可以看出,56层网络比20层网络训练误差和测试误差更大,随着网络的加深,其误差并没有如预想的一样减小。

2024-07-15 16:02:38 857

原创 《昇思25天学习打卡营第21天|基于MindSpore的GPT2文本摘要》

数据集加载本次实验使用的是nlpcc2017摘要数据,内容为新闻正文及其摘要,总计50000个样本。数据预处理for因GPT2无中文的tokenizer,我们使用BertTokenizer替代。

2024-07-14 12:25:22 340

转载 《昇思25天学习打卡营第20天|文本解码原理--以MindNLP为例》

Beam search通过在每个时间步保留最可能的 num_beams 个词,并从中最终选择出概率最高的序列来降低丢失潜在的高概率序列的风险。按照贪心搜索输出序列(“The”,“nice”,“woman”) 的条件概率为:0.5 x 0.4 = 0.2。选出概率最大的 K 个词,重新归一化,最后在归一化后的 K 个词中采样。在累积概率超过概率 p 的最小单词集中进行采样,重新归一化。缺点: 错过了隐藏在低概率词后面的高概率词。增加高概率单词的似然并降低低概率单词的似然。将出现过的候选词的概率设置为 0。

2024-07-13 22:33:40 22

转载 《昇思25天学习打卡营第19天|Diffusion扩散模型》

如果将Diffusion与其他生成模型(如Normalizing Flows、GAN或VAE)进行比较,它并没有那么复杂,它们都将噪声从一些简单分布转换为数据样本,Diffusion也是从纯噪声开始通过一个神经网络学习逐步去噪,最终得到一个实际图像。Diffusion对于图像的处理包括以下两个过程:我们选择的固定(或预定义)正向扩散过程qqq:它逐渐将高斯噪声添加到图像中,直到最终得到纯噪声一个学习的反向去噪的扩散过程pθp_\thetapθ​。

2024-07-13 00:03:04 54

原创 《昇思25天学习打卡营第18天|基于 MindSpore 实现 BERT 对话情绪识别》

BERT全称是来自变换器的双向编码器表征量(Bidirectional Encoder Representations from Transformers),它是Google于2018年末开发并发布的一种新型语言模型。与BERT模型相似的预训练语言模型例如问答、命名实体识别、自然语言推理、文本分类等在许多自然语言处理任务中发挥着重要作用。模型是基于Transformer中的Encoder并加上双向的结构,因此一定要熟练掌握Transformer的Encoder的结构。

2024-07-12 23:49:10 772

原创 【代码复现】STAEformer

STAEformer: Spatio-Temporal Adaptive Embedding Makes Vanilla Transformer SOTA for Traffic ForecastingSTAEformer代码复现

2024-07-12 10:42:56 388

原创 《昇思25天学习打卡营第17天|LSTM+CRF序列标注》

序列标注指给定输入序列,给序列中每个Token进行标注标签的过程。序列标注问题通常用于从文本中进行信息抽取,包括分词(Word Segmentation)、词性标注(Position Tagging)、命名实体识别(Named Entity Recognition, NER)等。输入序列清华大学座落于首都北京输出标注BIIIOOOOOBI如上表所示,清华大学和北京是地名,需要将其识别,我们对每个输入的单词预测其标签,最后根据标签来识别实体。

2024-07-10 18:14:35 850

原创 《昇思25天学习打卡营第16天|RNN实现情感分类》

情感分类是自然语言处理中的经典任务,是典型的分类问题。输入: This film is terrible正确标签: Negative预测标签: Negative输入: This film is great正确标签: Positive预测标签: Positive最后我们设计一个预测函数,实现开头描述的效果,输入一句评价,获得评价的情感分类。将输入句子进行分词;使用词表获取对应的index id序列;index id序列转为Tensor;送入模型获得预测结果;打印输出预测结果。

2024-07-09 17:52:44 924

原创 《昇思25天学习打卡营第15天|Pix2Pix实现图像转换》

Pix2Pix是基于条件生成对抗网络(cGAN, Condition Generative Adversarial Networks )实现的一种深度学习图像转换模型,该模型是由Phillip Isola等作者在2017年CVPR上提出的,可以实现语义/标签到真实图片、灰度图到彩色图、航空图到地图、白天到黑夜、线稿图到实物图的转换。生成器和判别器。传统上,尽管此类任务的目标都是相同的从像素预测像素,但每项都是用单独的专用机器来处理的。

2024-07-08 09:45:43 601

原创 《昇思25天学习打卡营第14天|DCGAN生成漫画头像》

本文通过示例代码说明DCGAN网络如何设置网络、优化器、如何计算损失函数以及如何初始化模型权重。最后虽然生成了动漫头像,但是一些细节还是和真实的图像差别较大,比如说眼睛大小,眼睛颜色等。

2024-07-07 09:43:01 680

原创 《昇思25天学习打卡营第13天|CycleGAN图像风格迁移互换》

CycleGAN(Cycle Generative Adversarial Network) 即循环对抗生成网络,来自论文。该模型实现了一种在没有配对示例的情况下学习将图像从源域 X 转换到目标域 Y 的方法。该模型一个重要应用领域是域迁移(Domain Adaptation),可以通俗地理解为图像风格迁移。

2024-07-06 21:04:29 1026

原创 《昇思25天学习打卡营第12天|GAN图像生成》

生成式对抗网络(Generative Adversarial Networks,GAN)是一种生成式机器学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。最初,GAN由Ian J. Goodfellow于2014年发明,并在论文生成器的任务是生成看起来像训练图像的“假”图像;判别器需要判断从生成器输出的图像是真实的训练图像还是虚假的图像。GAN通过设计生成模型和判别模型这两个模块,使其互相博弈学习产生了相当好的输出。GAN模型的核心在于提出了通过对抗过程来估计生成模型这一全新框架。

2024-07-05 10:55:36 1016

原创 《昇思25天学习打卡营第11天|基于MindSpore的红酒分类实验》

K近邻算法(K-Nearest-Neighbor, KNN)是一种用于分类和回归的非参数统计方法,最初由 Cover和Hart于1968年提出(Cover等人,1967),是机器学习最基础的算法之一。它正是基于以上思想:要确定一个样本的类别,可以计算它与所有训练样本的距离,然后找出和该样本最接近的k个样本,统计出这些样本的类别并进行投票,票数最多的那个类就是分类的结果。KNN的三个基本要素:K值,一个样本的分类是由K个邻居的“多数表决”确定的。K值越小,容易受噪声影响,反之,会使类别之间的界限变得模糊。

2024-07-04 23:24:54 1071

原创 《昇思25天学习打卡营第10天|基于MindNLP+MusicGen生成自己的个性化音乐》

MusicGen是来自Meta AI的Jade Copet等人提出的基于单个语言模型(LM)的音乐生成模型,能够根据文本描述或音频提示生成高质量的音乐样本,相关研究成果参考论文《Simple and Controllable Music Generation》。MusicGen模型基于Transformer结构,可以分解为三个不同的阶段:用户输入的文本描述作为输入传递给一个固定的文本编码器模型,以获得一系列隐形状态表示。训练MusicGen解码器来预测离散的隐形状态音频token。

2024-07-03 12:02:42 833

原创 《昇思25天学习打卡营第9天|使用静态图加速》

AI编译框架分为两种运行模式,分别是动态图模式以及静态图模式。MindSpore默认情况下是以动态图模式运行,但也支持手工切换为静态图模式。本文介绍了动态图和静态图的特点,然后详细讲解了mindspore是如何使用静态图加速的。这里给出了两种开启静态图的方式,基于装饰器的和基于context全局的,但是据了解使用context一键切换成静态图模式是有条件的,这点需要在ascend设备下,这点需要注意下哈。

2024-07-02 11:16:19 616

原创 《昇思25天学习打卡营第8天|模型训练》

从网络构建中加载代码,构建一个神经网络模型。超参(Hyperparameters)是可以调整的参数,可以控制模型训练优化的过程,不同的超参数值可能会影响模型训练和收敛速度。wt1wt−η1n∑x∈B∇lxwtwt1​wt​−ηn1​x∈B∑​∇lxwt​公式中,nnn是批量大小(batch size),ηηη是学习率(learning rate)。另外,wtw_{t}wt​为训练轮次ttt中的权重参数,

2024-07-01 11:11:03 803

原创 《昇思25天学习打卡营第7天|保存与加载》

在训练网络模型的过程中,实际上我们希望保存中间和最后的结果,用于微调(fine-tune)和后续的模型推理与部署,本章节我们将介绍如何保存与加载模型。MindIR同时保存了Checkpoint和模型结构,因此需要定义输入Tensor来获取输入shape。除Checkpoint外,MindSpore提供了云侧(训练)和端侧(推理)统一的。是未被加载的参数列表,为空时代表所有参数均加载成功。要加载模型权重,需要先创建相同模型的实例,然后使用。接口直接将模型保存为MindIR。

2024-07-01 00:03:33 206

原创 《昇思25天学习打卡营第6天|函数式自动微分》

本节介绍了如何用mindspore函数式自动微分,求微分函数和神经网络的参数梯度值。求得梯度值主要用于反向传播优化模型,这在下一节进行介绍。

2024-06-29 11:33:48 528

原创 《昇思25天学习打卡营第5天|网络构建》

下面我们将构建一个用于Mnist数据集分类的神经网络模型。当我们定义神经网络时,可以继承nn.Cell类,在__init__方法中进行子Cell的实例化和状态管理,在construct方法中实现Tensor操作。首先我们构造一个shape为(3, 28, 28)的随机数据(3个28x28的图像),依次通过每一个神经网络层来观察其效果。本文介绍了mindspore如何定义一个简单的神经网络模型并实例化调用,然后介绍了一些基本的神经网络层效果,最后介绍如何获取模型的参数名及对应的参数详情。

2024-06-28 16:49:38 949

原创 《昇思25天学习打卡营第4天|数据变换Transforms》

通常情况下,直接加载的原始数据并不能直接送入神经网络进行训练,此时我们需要对其进行数据预处理。MindSpore提供不同种类的数据变换(Transforms),配合数据处理Pipeline来实现数据预处理。所有的Transforms均可通过方法传入,实现对指定数据列的处理。模块提供一系列针对文本数据的Transforms。与图像数据不同,文本数据需要有分词(Tokenize)、构建词表、Token转Index等操作。这里简单介绍其使用方法。首先我们定义三段文本,作为待处理的数据,并使用进行加载。分词(T

2024-06-27 21:59:45 242

原创 《昇思25天学习打卡营第3天|数据集Dataset》

昇思25天学习打卡营第3天的打卡文章,主要目标是了解mindspore是如何加载自定义数据集的,还有数据集的常用操作,与pytorch自定义数据集进行简单对比差异。关于mindspore.dataset提供的内置数据集可以通过官方文档数据集Dataset来了解学习。模块提供了一些常用的公开数据集和标准格式数据集的加载API。对于MindSpore暂不支持直接加载的数据集,可以构造自定义数据加载类或自定义数据集生成函数的方式来生成数据集,然后通过接口实现自定义方式的数据集加载。

2024-06-26 10:58:23 921

原创 《昇思25天学习打卡营第2天|张量Tensor》

tensor学习,提供了一些pytorch与mindspore的对比

2024-06-25 12:36:34 796

原创 《昇思25天学习打卡营第1天|快速入门》

本文为昇思25天学习打卡营系列学习记录文章。快速入门:主要通过手写数字识别案例来快速熟悉使用mindspore框架的大致流程。本文章梳理了使用mindspore框架的大致流程,同时也是训练一个模型的基本流程。个人认为mindspore框架的一个特点是在数据集处理和模型训练对很多的步骤都用函数进行了封装,对于初学者会比较容易接受,但对于复杂的数据集处理和模型训练可能会少一些灵活性。本人也是mindspore初学者,正在虚心学习。

2024-06-24 23:53:20 351

原创 【论文理解】扩散卷积神经网络

扩散卷积神经网络,个人理解笔记。

2024-06-24 22:22:01 1111

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除