自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(26)
  • 收藏
  • 关注

原创 《昇思25天学习打卡营第25天|基于MindSpore的红酒分类实验》

K近邻算法(K-Nearest-Neighbor, KNN)是一种用于分类和回归的非参数统计方法,最初由 Cover和Hart于1968年提出(Cover等人,1967),是机器学习最基础的算法之一。它正是基于以上思想:要确定一个样本的类别,可以计算它与所有训练样本的距离,然后找出和该样本最接近的k个样本,统计出这些样本的类别并进行投票,票数最多的那个类就是分类的结果。KNN的三个基本要素:K值,一个样本的分类是由K个邻居的“多数表决”确定的。K值越小,容易受噪声影响,反之,会使类别之间的界限变得模糊。

2024-07-29 23:40:54 862

原创 《昇思25天学习打卡营第24天|Vision Transformer图像分类》

最初的输入向量首先会经过Embedding层映射成Q(Query),K(Key),V(Value)三个向量,由于是并行操作,所以代码中是映射成为dim x 3的向量然后进行分割,换言之,如果你的输入向量为一个向量序列(𝑥1𝑥1,𝑥2𝑥2,𝑥3𝑥3),其中的𝑥1𝑥1,𝑥2𝑥2,𝑥3𝑥3都是一维向量,那么每一个一维向量都会经过Embedding层映射出Q,K,V三个向量,只是Embedding矩阵不同,矩阵参数也是通过学习得到的。与训练过程相似,首先进行数据增强,然后定义ViT网络结构,加载预训练模型参数。

2024-07-29 22:16:52 986

原创 《昇思25天学习打卡营第23天|SSD目标检测》

PriorBox位置的表示形式是以中心点坐标和框的宽、高(cx,cy,w,h)来表示的,同时都转换成百分比的形式。SSD模型一共有6个预测特征图,对于其中一个尺寸为m*n,通道为p的预测特征图,假设其每个像素点会产生k个anchor,每个anchor会对应c个类别和4个回归偏移量,使用(4+c)k个尺寸为3x3,通道为p的卷积核对该预测特征图进行卷积操作,得到尺寸为m*n,通道为(4+c)m*k的输出特征图,它包含了预测特征图上所产生的每个锚的回归偏移量和各类别概率分数。SSD的网络结构如图所示。

2024-07-29 22:03:29 880

原创 《昇思25天学习打卡营第22天|ShuffleNet图像分类》

ShuffleNetV1是旷视科技提出的一种计算高效的CNN模型,和MobileNet, SqueezeNet等一样主要应用在移动端,所以模型的设计目标就是利用有限的计算资源来达到最好的模型精度。ShuffleNetV1的设计核心是引入了两种操作:Pointwise Group Convolution和Channel Shuffle,这在保持精度的同时大大降低了模型的计算量。因此,ShuffleNetV1和MobileNet类似,都是通过设计更高效的网络结构来实现模型的压缩和加速。

2024-07-29 20:33:33 809

原创 《昇思25天学习打卡营第21天|ResNet50图像分类》

ResNet50网络是2015年由微软实验室的何恺明提出,获得ILSVRC2015图像分类竞赛第一名。在ResNet网络提出之前,传统的卷积神经网络都是将一系列的卷积层和池化层堆叠得到的,但当网络堆叠到一定深度时,就会出现退化问题。下图是在CIFAR-10数据集上使用56层网络与20层网络训练误差和测试误差图,由图中数据可以看出,56层网络比20层网络训练误差和测试误差更大,随着网络的加深,其误差并没有如预想的一样减小。

2024-07-29 19:33:27 525

原创 《昇思25天学习打卡营第20天|ResNet50迁移学习》

在实际应用场景中,由于训练数据集不足,所以很少有人会从头开始训练整个网络。普遍的做法是,在一个非常大的基础数据集上训练得到一个预训练模型,然后使用该模型来初始化网络的权重参数或作为固定特征提取器应用于特定的任务中。本章将使用迁移学习的方法对ImageNet数据集中的狼和狗图像进行分类。迁移学习详细内容见。

2024-07-29 19:14:29 369

原创 《昇思25天学习打卡营第19天|FCN图像语义分割》

将底层(stride 32)的预测(FCN-32s)进行2倍的上采样得到原尺寸的图像,并与从pool4层(stride 16)进行的预测融合起来(相加),这一部分的网络被称为FCN-16s。在卷积过程的卷积操作和池化操作会使得特征图的尺寸变小,为得到原图的大小的稠密图像预测,需要对得到的特征图进行上采样操作。因为FCN网络在训练的过程中需要大量的训练数据和训练轮数,这里只提供了小数据单个epoch的训练来演示loss收敛的过程,下文中使用已训练好的权重文件进行模型评估和推理效果的展示。

2024-07-28 20:01:30 734

原创 《昇思25天学习打卡营第18天|编程实践》

围绕量子模拟器、量子门、量子路线、量子测量和量子近似优化算法五个模块,编写代码程序,实践练习。巩固知识,通过解决实际问题,你可以更深入地理解和应用上述模块的知识点,对于检验理解、查找不足和提升技能非常有帮助。这一节内容,主要是实践练习,没有做讲解。

2024-07-28 19:29:14 109

原创 《昇思25天学习打卡营第17天|HHL 算法》

但是𝐶≤||𝜆𝑗||𝐶≤|𝜆𝑗|,它要比所有特征值的绝对值还要小,如果没有先验信息,不知道绝对值最小的𝜆𝜆有多大,那么就只能保守的取一个很小的𝐶𝐶,然后可以通过振幅放大技术来增大得到结果的概率。对于𝑏 ⃗𝑏→,因为 HHL 是量子算法,所以需要输入的是量子态|湾〉=∑𝑁j=1𝑏𝑗|J〉|𝑏〉=∑𝑗=1𝑁𝑏𝑗|𝑗〉。这里不去展开证明 QPE 的正确性,读者只需要知道 QPE 的输入是一个酉算子𝑈𝑈和其特征向量|U〉|𝑢〉,设𝑈|U〉=𝑒2π我φ|U〉𝑈|𝑢〉=𝑒2𝜋我𝜑|𝑢〉,输出是φ𝜑的估计φ ̃𝜑~。

2024-07-28 19:06:35 493

原创 《昇思25天学习打卡营第16天|在量子化学计算中应用量子变分求解器》

量子化学,指的是运用量子力学的基本理论及方法,求解含时或定态薛定谔方程的数值解。在高性能计算机上进行量子化学模拟已成为研究材料的物理、化学性质的重要手段。然而,精确求解薛定谔方程具有指数级的复杂度,可模拟的化学体系规模严重受制于此。近年量子计算的发展为解决这个问题提供了一条可行的路,有望在量子计算机上实现多项式复杂度下对薛定谔方程的高精度求解。Peruzzo等人在2014年首次将量子变分求解器(Variational quantum eigensolver, VQE)结合幺正耦合簇理论。

2024-07-28 18:27:37 570

原创 《昇思25天学习打卡营第15天|通过量子神经网络对鸢尾花进行分类》

量子神经网络是一类将人工神经网络与量子计算相结合的算法。在经典神经网络中,人们以类似人脑神经系统的网状结构作为计算模型,对特定问题进行预测,并根据真实结果对神经元的参数进行优化,反复迭代直到模型能较为准确的预测结果。而在量子线路中,我们同样可以搭建出类似的网状结构,并将其中一些含参数的门作为神经元,然后我们可以测量出相关哈密顿量的期望值作为损失函数,对门参数进行优化,直到找出最优参数。这样,我们就训练出了一个量子神经网络。

2024-07-28 18:00:03 603

原创 《昇思25天学习打卡营第14天|量子相位估计算法》

量子相位估计算法(Quantum Phase Estimation Algorithm,简称QPE),是很多量子算法的关键。假设一个幺正算符 𝑈,这个幺正算符作用在其本征态 |𝑢〉上会出现一个相位 𝑒2𝜋𝑖𝜑,现在我们假设 𝑈算符的本征值未知,也就是 𝜑 未知,但是 𝑈𝑈 算符和本征态 |𝑢〉|𝑢〉 已知,相位估计算法的作用就是对这个相位 𝜑 进行估计。

2024-07-28 17:41:11 740

原创 《昇思25天学习打卡营第13天|量子神经网络在自然语言处理中的应用》

在自然语言处理过程中,词嵌入(Word embedding)是其中的重要步骤,它是一个将高维度空间的词向量嵌入到一个维数更低的连续向量空间的过程。当给予神经网络的语料信息不断增加时,网络的训练过程将越来越困难。利用量子力学的态叠加和纠缠等特性,我们可以利用量子神经网络来处理这些经典语料信息,加入其训练过程,并提高收敛精度。下面,我们将简单地搭建一个量子经典混合神经网络来完成一个词嵌入任务。本教程实现的是一个CBOW模型,即利用某个词所处的环境来预测该词。

2024-07-28 17:27:26 1437

原创 《昇思25天学习打卡营第12天|量子近似优化算法》

量子近似优化算法(Quantum Approximate Optimization Algorithm,QAOA)是利用量子计算机来近似解决组合优化问题的量子算法,最早由Farhi等人于2014年提出。在本文档里,我们将利用QAOA算法来解决最大割问题(Max-Cut),来熟悉MindSpore Quantum中量子线路的搭建和训练。这里我们通过量子近似优化算法来解决了Max-Cut问题,并得到了案例中的图对应的最大切割方案。

2024-07-28 16:42:17 704

原创 《昇思25天学习打卡营第11天|基于MindSpore Quantum的Grover搜索算法和龙算法》

|𝑁−1〉|0〉,|1〉,...,|𝑁−1〉​(或|00...0〉,|00...1〉,.。门产生均匀叠加态,然后反复调用Grover迭代(或称为𝐺𝐺算子),以放大目标项的概率振幅同时抑制非目标项的概率振幅(该方法称之为振幅放大),最后对末态进行测量,那么就能以极大的概率得到目标态|ω〉|𝜔〉​​。通过上述介绍,我们发现,Grover搜索算法中最关键的部分就是存在可以翻转量子比特相位的酉算子,Oracle算子𝑈𝜔𝑈𝜔可以翻转目标态的相位,条件相移算子𝑃𝑃可以翻转|0〉|0〉态以外的每个态的相位。

2024-07-28 16:06:55 674

原创 《昇思25天学习打卡营第10天|使用静态图加速》

动态图的特点是计算图的构建和计算同时发生(Define by run),其符合Python的解释执行方式,在计算图中定义一个Tensor时,其值就已经被计算且确定,因此在调试模型时较为方便,能够实时得到中间结果的值,但由于所有节点都需要被保存,导致难以对整个计算图进行优化。在MindSpore中,静态图模式又被称为Graph模式,在Graph模式下,基于图优化、计算图整图下沉等技术,编译器可以针对图进行全局的优化,获得较好的性能,因此比较适合网络固定且需要高性能的场景。有关静态图模式的运行原理,可以参考。

2024-07-28 15:32:52 587

原创 《昇思25天学习打卡营第9天|保存与加载》

上一章节主要介绍了如何调整超参数,并进行网络模型训练。在训练网络模型的过程中,实际上我们希望保存中间和最后的结果,用于微调(fine-tune)和后续的模型推理与部署,本章节我们将介绍如何保存与加载模型。MindIR同时保存了Checkpoint和模型结构,因此需要定义输入Tensor来获取输入shape。除Checkpoint外,MindSpore提供了云侧(训练)和端侧(推理)统一的。是未被加载的参数列表,为空时代表所有参数均加载成功。要加载模型权重,需要先创建相同模型的实例,然后使用。

2024-07-27 20:18:59 202

原创 《昇思25天学习打卡营第8天|模型训练》

从网络构建中加载代码,构建一个神经网络模型。定义超参、损失函数和优化器。

2024-07-27 20:12:20 608

原创 《昇思25天学习打卡营第7天|函数式自动微分》

神经网络的训练主要使用反向传播算法,模型预测值(logits)与正确标签(label)送入损失函数(loss function)获得loss,然后进行反向传播计算,求得梯度(gradients),最终更新至模型参数(parameters)。自动微分主要解决的问题是将一个复杂的数学运算分解为一系列简单的基本运算,该功能对用户屏蔽了大量的求导细节和过程,大大降低了框架的使用门槛。对模型参数求导时,我们使用​​​​​​​​​​​​​​。我们根据计算图描述的计算过程,构造计算函数。

2024-07-27 19:40:38 1067

原创 《昇思25天学习打卡营第6天|网络构建》

首先我们构造一个shape为(3, 28, 28)的随机数据(3个28x28的图像),依次通过每一个神经网络层来观察其效果。将神经网络最后一个全连接层返回的logits的值缩放为[0, 1],表示每个类别的预测概率。当我们定义神经网络时,可以继承类,在方法中进行子Cell的实例化和状态管理,在方法中实现Tensor操作。我们构造一个输入数据,直接调用模型,可以获得一个十维的Tensor输出,其包含每个类别的原始预测值。使用这样的嵌套结构,可以简单地使用面向对象编程的思维,对神经网络结构进行构建和管理。

2024-07-27 18:57:13 226

原创 《昇思25天学习打卡营第5天|数据变换 Transforms》

在不同的硬件设备中可能会对(height, width, channel)或(channel, height, width)两种不同格式有针对性优化。这里简单介绍其使用方法。图像的每个像素将根据这两个参数进行调整,输出的像素值为𝑜𝑢𝑡𝑝𝑢𝑡𝑖=𝑖𝑛𝑝𝑢𝑡𝑖∗𝑟𝑒𝑠𝑐𝑎𝑙𝑒+𝑠ℎ𝑖𝑓𝑡𝑜𝑢𝑡𝑝𝑢𝑡𝑖=𝑖𝑛𝑝𝑢𝑡𝑖∗𝑟𝑒𝑠𝑐𝑎𝑙𝑒+𝑠ℎ𝑖𝑓𝑡。图像的每个通道将根据和进行调整,计算公式为𝑜𝑢𝑡𝑝𝑢𝑡𝑐=𝑖𝑛𝑝𝑢𝑡𝑐−𝑚𝑒𝑎𝑛𝑐𝑠𝑡𝑑𝑐𝑜𝑢𝑡𝑝𝑢𝑡𝑐=𝑖𝑛𝑝𝑢𝑡𝑐−𝑚𝑒𝑎𝑛𝑐𝑠𝑡𝑑𝑐,其中 𝑐𝑐代表通道索引。

2024-07-27 18:04:37 693

原创 《昇思25天学习打卡营第4天|数据集 Dataset》

操作是数据预处理的关键操作,可以针对数据集指定列(column)添加数据变换(Transforms),将数据变换应用于该列数据的每个元素,并返回包含变换后元素的新数据集。的异步执行方式,执行操作返回新的Dataset,此时不执行具体操作,而是在Pipeline中加入节点,最终进行迭代时,并行执行整个Pipeline。将数据集打包为固定大小的是在有限硬件资源下使用梯度下降进行模型优化的折中方法,可以保证梯度下降的随机性和优化计算量。和方法的数据集,表示可以通过索引/键直接访问对应位置的数据样本。

2024-07-27 17:35:31 446

原创 《昇思25天学习打卡营第3天|张量 Tensor》

在某些应用场景中(比如推荐系统、分子动力学、图神经网络等),数据的特征是稀疏的,若使用普通张量表征这些数据会引入大量不必要的计算、存储和通讯开销。(Coordinate Format)稀疏张量格式用来表示某一张量在给定索引上非零元素的集合,若非零元素的个数为,被压缩的张量的维数为。张量之间有很多运算,包括算术、线性代数、矩阵处理(转置、标引、切片)、采样等,张量运算和NumPy的使用方式类似,下面介绍其中几种操作。张量的属性、张量索引、张量运算、Tensor与NumPy转换、稀疏张量六个模块来讲解。

2024-07-27 17:05:10 508

原创 《昇思25天学习打卡营第2天|快速入门》

打印数据集中包含的数据列名,用于数据集的预处理。MindSpore的数据集使用数据处理流水线(Data Processing Pipeline),需指定map、batch、shuffle等操作。这里我们使用map对图像数据及标签进行变换处理,然后将处理好的数据集打包为大小为64的batch。类是构建所有网络的基类,也是网络的基本单元。:利用自动微分机制,自动求模型参数(parameters)对于loss的梯度(gradients)。使用Mnist数据集,自动下载完成后,使用提供的数据变换进行预处理。

2024-07-27 16:17:47 272

原创 《昇思25天学习打卡营第1天|基本介绍》

昇思MindSpore有着支持全场景统一部署、提供Python编程范式并简化AI编程、提供动态图和静态图统一的编码方式、采用AI和科学计算融合编程并使用户聚焦于模型算法的数学原生表达、分布式训练原生的五大设计理念,向用户提供了High-Level Python API、Medium-Level Python API以及Low-Level Python API3个不同层次的API。本节是昇思MindSpore和华为昇腾AI全栈和在华为昇腾AI全栈中的位置的整体介绍。

2024-07-16 07:28:55 143

原创 开放原子训练营(第二季)RT-Thread Nano学习营

在线程的循环体里面,应该要设置某些条件,在必要的时候主动让出CPU的使用权,特别对于高优先级的线程,如果程序里面有死循环操作而又不主动让出CPU使用权,那么这个线程将会一直占用CPU,并且低优先级的线程永远不会被调度执行。我在网上查了查资料,做了总结:在使用RT-Thread实时操作系统进行多线程应用开发的时候,RT-Thread的线程调度器是抢占式的,也就是能够保证就绪队列里面,最高优先级的任务总能获得CPU的使用权,在任务设计的时候,要充分考虑好任务的优先级。组件资源,减少重复工作,提高开发效率。

2023-04-26 21:27:31 869 1

mongodb安装exe软件

它的特点是高性能、易部署、易使用,存储数据非常方便。主要功能特性有: *面向集合存储,易存储对象类型的数据。 *模式自由。 *支持动态查询。 *支持完全索引,包含内部对象。 *支持查询。 *支持复制和故障恢复。 *使用高效的二进制数据存储,包括大型对象(如视频等)。 *自动处理碎片,以支持云计算层次的扩展性。 *支持 Golang,RUBY,PYTHON,JAVA,C++,PHP,C#等多种语言。 *文件存储格式为BSON(一种JSON的扩展)。 *可通过网络访问。 使用原理 播报 编辑 所谓“面向集合”(Collection-Oriented),意思是数据被分组存储在数据集中,被称为一个集合(Collection)。每个集合在数据库中都有一个唯一的标识名,并且可以包含无限数目的文档。集合的概念类似关系型数据库(RDBMS)里的表(table),不同的是它不需要定义任何模式(schema)。Nytro MegaRAID技术中的闪存高速缓存算法,能够快速识别数据库内大数据集中的热数据,提供一致的性能改进。 模式自由(schema-free),意味着对于存储在mongodb数据库中的文件,

2024-08-16

nginx-1.24.0,文件配置是我本地的,没有修改,需要重新配置

nginx

2024-08-14

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除