自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(27)
  • 收藏
  • 关注

原创 《昇思25天学习打卡营第27天》

今天我们继续Diffusion扩散模型的后半部分学习。

2024-07-29 00:09:44 201

原创 《昇思25天学习打卡营第26天》

今天我们接续上一天的学习内容Diffusion扩散模型在对模型有了大致了解之后,我们接下来要进行模型构建工作定义帮助函数和类代码如下定义上采样和下采样操作的别名。

2024-07-27 23:54:02 198

原创 《昇思25天学习打卡营第25天》

我们将Diffusion与其他生成模型(如Normalizing Flows、GAN或VAE)进行比较,它并没有那么复杂,它们都将噪声从一些简单分布转换为数据样本,Diffusion也是从纯噪声开始通过一个神经网络学习逐步去噪,最终得到一个实际图像。Diffusion对于图像的处理包括以下两个过程:我们选择的固定(或预定义)正向扩散过程 𝑞 :它逐渐将高斯噪声添加到图像中,直到最终得到纯噪声一个学习的反向去噪的扩散过程 𝑝𝜃:通过训练神经网络从纯噪声开始逐渐对图像去噪,直到最终得到一个实际的图像。

2024-07-27 00:08:11 429

原创 《昇思25天学习打卡营第24天》

接续上一天的学习任务,我们要继续进行下一步的操作。

2024-07-25 23:53:32 443

原创 《昇思25天学习打卡营第23天》

今天我们来进行一次比较有意思的学习,就是DCGAN生成漫画头像,从此解决头像之忧。

2024-07-25 00:12:52 309

原创 《昇思25天学习打卡营第22天》

今天我们接续上一天的学习内容图像风格迁移互换该内容属于应用实践生成式的重要一课上一次做好了环境的准备,接着要进行可视化的操作可视化解释:通过函数将数据转换成字典迭代器,然后使用matplotlib模块可视化部分训练数据。

2024-07-24 23:42:01 277

原创 《昇思25天学习打卡营第21天》

CycleGAN(Cycle Generative Adversarial Network) 即循环对抗生成网络,该模型实现了一种在没有配对示例的情况下学习将图像从源域 X 转换到目标域 Y 的方法。

2024-07-22 23:49:39 255

原创 《昇思25天学习打卡营第20天》

今天我们要进行学习的内容是RNN实现情感分类的后半部分。

2024-07-21 19:48:36 276

原创 《昇思25天学习打卡营第19天》

今天我们要进行学习的内容是RNN实现情感分类概述:情感分类是自然语言处理中的经典任务,是典型的分类问题。解释:情感分类是用于识别主观文本中的情感倾向的技术,包括积极、中性、消极三类。它在用户消费习惯分析、危机舆情监控等方面有重要应用。在开始之前我们要进行数据的准备设计数据下载模块。

2024-07-20 23:42:59 512

原创 《昇思25天学习打卡营第18天》

今天进入了第18天的学习,本次我们要先从LSTM+CRF序列标注的CRF层开始学习。让我们先来了解一下什么是CRF层C(条件随机场)是一种常用于序列标注和命名实体识别的神经网络模型,PyTorch中的CRF层扮演重要的作用:考虑到输入序列可能存在Padding的情况,CRF的输入需要考虑输入序列的真实长度,因此除发射矩阵和标签外,加入`seq_length`参数传入序列Padding前的长度,并实现生成mask矩阵的`sequence_mask`方法。

2024-07-20 00:00:08 343

原创 《昇思25天学习打卡营第17天》

根据公式(3)(3)计算正确标签序列所对应的得分,这里需要注意,除了转移概率矩阵𝐏P外,还需要维护两个大小为的向量,分别作为序列开始和结束时的转移概率。同时我们引入了一个掩码矩阵,将多个序列打包为一个Batch时填充的值忽略,使得ScoreScore计算仅包含有效的Token。Normalizer是𝑥对应的所有可能的输出序列的Score的对数指数和(Log-Sum-Exp)。此时如果按穷举法进行计算,则需要将每个可能的输出序列Score都计算一遍,共有多个结果。我们要选择适合求解序列最优路径的。

2024-07-18 23:39:24 162

原创 《昇思25天学习打卡营第16天》

序列标注指给定输入序列,给序列中每个Token进行标注标签的过程。序列标注问题通常用于从文本中进行信息抽取,包括分词(Word Segmentation)、词性标注(Position Tagging)、命名实体识别(Named Entity Recognition, NER)等。输入序列清华大学座落于首都北京输出标注BIIIOOOOOBI如上表所示,清华大学和北京是地名,需要将其识别,我们对每个输入的单词预测其标签,最后根据标签来识别实体。

2024-07-18 00:05:25 365

原创 《昇思25天学习打卡营第15天》

本次我们学习的内容是基于MindSpore实现BERT对话情绪识别BERT(Bidirectional Encoder Representations from Transformers)是Google于2018年发布的一种新型语言模型,在许多自然语言处理任务中表现优异。如图模型简介接着就是进行数据集准备。

2024-07-17 08:31:52 442

原创 《昇思25天学习打卡营第14天》

是一项重要的自然语言处理任务,可以在多个领域发挥着重要的作用,而基于MindSpore的GPT2就可以充分发挥概括原始文本的主要内容和要点的能力。在开始之前,要进行数据的加载与处理,本次实验使用的是nlpcc2017摘要数据,内容为新闻正文及其摘要,总计50000个样本。本次我们学习的内容是基于MindSpore的GPT2文本摘要。在此之后就要开始模型的构建,即进行模型基本搭建。准备好数据之后就要开始进行数据预处理。即数据处理,将向量数据变为中文数据。经过训练后就可以进行模型推理。

2024-07-16 08:53:06 303

原创 《昇思25天学习打卡营第13天》

本次我们学习的内容是基于MindSpore通过GPT实现情感分类,这个相当于在MindSpore的基础上使用gpt来强化MindSpore的表现,使得它的AI能力得到进一步的提高。当然,要做的第一件事是进行环境配置,配置过的话,就不用再次麻烦了。在完成环境的配置之后,就可以进行使用了。最后附上本次打卡时间。

2024-07-14 23:49:50 212

原创 《昇思25天学习打卡营第12天》

但是这个BeamSerach东西的缺点是:1. 无法解决重复问题;2. 开放域生成效果差。开始之前当然要进行环境的配置,如图。接着如图,进行概率性的配置。还有另外一种解码方式;优点:文本生成多样性高。本文在最后附上打卡时间。缺点:生成文本不连续。

2024-07-14 00:00:10 201

原创 《昇思25天学习打卡营第11天》

今天进入了应用实践的学习中,我们先从LLM原理和实践开始学习,本次学习的内容是MindNLP ChatGLM-6B StreamChat。这个东西是基于MindNLP和ChatGLM-6B实现一个聊天应用。开始之前要进行一下环境的配置。如图,在最后附上本次打卡时间。配置完成后即可进行使用。

2024-07-12 23:42:12 120

原创 《昇思25天学习打卡营第10天》

MindSpore提供了jit装饰器,可以通过修饰Python函数或者Python类的成员函数使其被编译成计算图,通过图优化等技术提高运行速度。此时我们可以简单的对想要进行性能优化的模块进行图编译加速,而模型其他部分,仍旧使用解释执行方式,不丢失动态图的灵活性。今天就要告别初学入门的初学教程的学习了,让我们接着上一天的学习,一起进入到静态图模式开启方式的学习吧!静态图开启方式有两种,第一种是基于装饰器的开启方式,第二种是基于context的开启方式。除此之外静态图的是有语法约束的,需要注意使用时的语法,

2024-07-11 23:40:10 135

原创 《昇思25天学习打卡营第9天》

今天进入使用静态图加速的学习,这标志着初学教程即将向我告别。这次分成两个部分来进行学习,现在我们要学习的是两种加速模式的解释。1.动态图模式 : 动态图的特点是计算图的构建和计算同时发生。2.静态图模式:静态图的特点是将计算图的构建和实际计算分开。这两种模式各有各的优点与缺点,可以根据实际情况选择。接着是静态图模式开启方式,明天在进行学习。

2024-07-10 23:26:48 193

原创 《昇思25天学习打卡营第8天》

今天进入了初学入门初学教程的保存与加载的学习,下面我们来看看吧。

2024-07-09 23:21:50 295

原创 《昇思25天学习打卡营第7天》

在准备完成“试题"内容之后就要告诉它要考查的内容,到这里就需要去赋予变量。首先要给模型做训练,就要准备好训练的内容,材料,因此就有了数据集的构建。训练,通俗的讲就是给我们的AI做训练,练习。当然,这些东西从一些模型网站上下载即可,图中实例就不改了。赋予完之后,开始训练!加载代码,构建数据集。

2024-07-08 23:34:39 232

原创 《昇思25天学习打卡营第6天》

今天开启了函数式自动微分的新课程,总体上讲,无非就是“设置变量求和”,它就像一个数学公式一样简单套用就行,下面来看看吧。介绍:自动微分能够计算可导函数在某点处的导数值,是反向传播算法的一般化。自动微分主要解决的问题是将一个复杂的数学运算分解为一系列简单的基本运算,该功能对用户屏蔽了大量的求导细节和过程,大大降低了框架的使用门槛。下面值得注意的是。

2024-07-07 23:33:35 206

原创 《昇思25天学习打卡营第5天》

使用这样的嵌套结构,可以简单地使用面向对象编程的思维,对神经网络结构进行构建和管理。类是构建所有网络的基类,也是网络的基本单元。一个神经网络模型表示为一个。今天我们要学习的是网络构建,总体上来讲,变量设置占据了大体的位置。神经网络模型是由神经网络层和Tensor操作构成的,提供了常见神经网络层的实现,在MindSpore中,其次是模型层的定义,主要如我所说都是变量的赋予。首先,是网络构建的介绍。

2024-07-06 23:51:34 175

原创 《昇思25天学习打卡营第4天》

Lambda函数是一种不需要名字、由一个单独表达式组成的匿名函数,表达式会在调用时被求值。Lambda Transforms可以加载任意定义的Lambda函数,提供足够的灵活度。额,看图吧最后附上打卡时间总结:今天学习内容普遍简单。

2024-07-05 23:44:52 126

原创 《昇思25天学习打卡营第3天》

通常情况下,直接加载的原始数据并不能直接送入神经网络进行训练,此时我们需要对其进行数据预处理。MindSpore提供不同种类的数据变换(Transforms),配合数据处理Pipeline来实现数据预处理。所有的Transforms均可通过map方法传入,实现对指定数据列的处理。首先就是compose,看代码就知道是为之后的HWC2CHW做准备,接着下载一下资源配置下环境。数据变换 Transforms。剩下的钱内容明天接着。

2024-07-05 00:25:35 181

原创 《昇思25天学习打卡营第2天》

首当其冲就是数据集,我认识到在大模型里非常重要,而且也知道这种随机访问随机怎么样写的,进一步刷新了我的认知,也是成功的,按照实例运行了。其次就是数据集加载,到这里我真的看不太懂。钻研了几分钟才知道是怎么一回事。总体来说还挺好,认识的。前两天因为太忙了,没有空,所以又一次拖到今天才进行打卡。来看下,今天学习了什么。

2024-07-02 23:52:08 107

原创 《昇思25天学习打卡营第1天》

我第一次接触这个东西,对其还没有多大的了解。在无意间接触时,我觉得这是一个十分有趣的项目,虽然很有兴趣,但是还有许多东西我看不太懂。里边的东西十分的新颖,它会一一介绍这个MindSpore出来,还是挺详细的,我第一次看就认为这个大模型十分有前景。其实昨天就开始学习了,因为太多不懂所以搁置到今天。其中它的学习的排版还是不错的,如图。总结:路还很长,还需努力。

2024-06-29 14:30:32 212

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除