自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(25)
  • 收藏
  • 关注

原创 昇思25天学习打卡第25天

取wine数据集上的3类样本,分为已知类别样本和待验证样本,从验证结果可以看出KNN算法在该任务上有效,能根据酒的13种属性判断出酒的品种。要确定一个样本的类别,可以计算它与所有训练样本的距离,然后找出和该样本最接近的k个样本,统计出这些样本的类别并进行投票,票数最多的那个类就是分类的结果。距离度量,反映了特征空间中两个样本间的相似度,距离越小,越相似。K值,一个样本的分类是由K个邻居的“多数表决”确定的。K近邻算法(K-Nearest-Neighbor, KNN)是一种用于分类和回归的非参数统计方法,

2024-07-26 19:20:35 170

原创 昇思25天学习打卡第24天

MusicGen是来自Meta AI的Jade Copet等人提出的基于单个语言模型(LM)的音乐生成模型,能够根据文本描述或音频提示生成高质量的音乐样本,相关研究成果参考论文《MusicGen支持两种生成模式:贪心(greedy)和采样(sampling)。首先基于文本提示,通过对输入进行预处理。然后将预处理后的输入传递给 方法以生成文本条件音频样本。首先加载音频文件,然后进行预处理,并将输入给到网络模型来进行音频生成。基于MindNLP+MusicGen生成自己的个性化音乐。

2024-07-24 21:35:40 325

原创 昇思25天学习打卡第23天

Residual Connection,Normalization的结构可以保证模型有很强的扩展性(保证信息经过深层处理不会出现退化的现象,这是Residual Connection的作用),Normalization和dropout的应用可以增强模型泛化能力。从Transformer结构的图片可以发现,多个子编码器的堆叠就完成了模型编码器的构建,在ViT模型中,依然沿用这个思路,通过配置超参数num_layers,就可以确定堆叠层数。模型开始训练前,需要设定损失函数,优化器,回调函数等。

2024-07-23 16:48:07 337

原创 昇思25天学习打卡第22天

多头注意力机制就是将原本self-Attention处理的向量分割为多个Head进行处理学习时间与id:

2024-07-22 19:38:28 428

原创 昇思25天学习打卡第21天

自定义eval_net()类对训练好的模型进行评估,调用了上述定义的SsdInferWithDecoder类返回预测的坐标及标签,然后分别计算了在不同的IoU阈值、area和maxDets设置下的Average Precision(AP)和Average Recall(AR)。在训练过程中,首先要确定训练图片中的ground truth(真实目标)与哪个先验框来进行匹配,与之匹配的先验框所对应的边界框将负责预测它。损失函数使用的是上文提到的位置损失函数和置信度损失函数的加权和。

2024-07-21 11:31:22 159

原创 昇思25天学习打卡第20天

SSD,全称Single Shot MultiBox Detector,是Wei Liu在ECCV 2016上提出的一种目标检测算法。SSD采用VGG16作为基础模型,然后在VGG16的基础上新增了卷积层来获得更多的特征图以用于检测。SSD的网络结构如图所示。SSD是单阶段的目标检测算法,通过卷积神经网络进行特征提取,取不同的特征层进行检测输出,所以SSD是一种多尺度的检测方法。每个采样区域的大小为原始图像大小的[0.3,1],长宽比在1/2和2之间。通过算法产生候选框,然后再对这些候选框进行分类和回归。

2024-07-20 21:43:28 198

原创 昇思25天学习打卡第19天

本节用随机初始化的参数做预训练。首先调用定义网络,参数量选择,并定义损失函数为交叉熵损失,学习率经过4轮的后采用余弦退火,优化器采用。最后用中的接口将模型、损失函数、优化器封装在中,并用对网络进行训练。在CIFAR-10的测试集上对模型进行预测,并将预测结果可视化。采用CIFAR-10数据集对ShuffleNet进行预训练。在CIFAR-10的测试集上对模型进行评估。构建ShuffleNet网络。

2024-07-19 21:13:17 147

原创 昇思25天学习打卡第18天

ShuffleNet图像分类ShuffleNet网络介绍ShuffleNetV1是旷视科技提出的一种计算高效的CNN模型,和MobileNet, SqueezeNet等一样主要应用在移动端,所以模型的设计目标就是利用有限的计算资源来达到最好的模型精度。ShuffleNetV1的设计核心是引入了两种操作:Pointwise Group Convolution和Channel Shuffle,这在保持精度的同时大大降低了模型的计算量。模型架构。

2024-07-18 21:11:26 186

原创 昇思25天学习打卡第17天

调用构造ResNet50模型,并设置参数为True,将会自动下载ResNet50预训练模型,并加载预训练模型中的参数到网络中。残差网络结构(Residual Network)是ResNet网络的主要亮点,ResNet使用残差网络结构后可有效地减轻退化问题,实现更深的网络结构设计,提高网络的训练精度。若预测字体颜色为蓝色表示为预测正确,预测字体颜色为红色则表示预测错误。由于预训练模型全连接层(fc)的输出大小(对应参数)为1000, 为了成功加载预训练权重,我们将模型的全连接输出大小设置为默认的1000。

2024-07-17 17:03:26 274

原创 昇思25天学习打卡第16天

普遍的做法是,在一个非常大的基础数据集上训练得到一个预训练模型,然后使用该模型来初始化网络的权重参数或作为固定特征提取器应用于特定的任务中。,数据集中的图像来自于ImageNet,每个分类有大约120张训练图像与30张验证图像。从接口中加载的训练数据集返回值为字典,用户可通过 接口创建数据迭代器,使用 迭代访问数据集。狼狗数据集提取自ImageNet分类数据集,使用接口来加载数据集,并进行相关图像增强操作。开始训练模型,与没有预训练模型相比,将节约一大半时间,因为此时可以不用计算部分梯度。

2024-07-16 18:09:19 295

原创 昇思25天学习打卡第15天

:表明扩散模型通过改进U-Net体系结构以及引入分类器指导,可以获得优于当前最先进的生成模型的图像样本质量。):引入级联扩散,它包括多个扩散模型的流水线,这些模型生成分辨率提高的图像,用于高保真图像合成。):表明将大型预训练语言模型(例如T5)与级联扩散结合起来,对于文本到图像的合成很有效。):表明通过使用单个神经网络联合训练条件和无条件扩散模型,不需要分类器来指导扩散模型。):在将文本标题转换为CLIP图像嵌入之前使用,然后扩散模型将其解码为图像。用于高保真图像生成的级联扩散模型([

2024-07-15 20:32:31 425

原创 昇思25天学习打卡第14天

每个下采样阶段由2个ResNet/ConvNeXT块 + groupnorm + attention + 残差连接 + 一个下采样操作组成。接下来,应用一系列上采样级。每个上采样级由2个ResNet/ConvNeXT块+ groupnorm + attention + 残差连接 + 一个上采样操作组成。在网络的中间,再次应用ResNet或ConvNeXT块,并与attention交织。最后,应用ResNet/ConvNeXT块,然后应用卷积层。首先,将卷积层应用于噪声图像批上,并计算噪声水平的位置。

2024-07-02 22:05:11 196

原创 昇思25天学习打卡第13天

Diffusion扩散模型。

2024-07-01 20:28:49 263

原创 昇思25天学习打卡第12天

进行8倍上采样虽然比32倍的效果好了很多,但是上采样的结果仍比较模糊和平滑,尤其是边界处,网络对图像中的细节不敏感。忽略了在通常的基于像素分类的分割方法中使用的空间规整(spatial regularization)步骤,缺乏空间一致性。与传统使用CNN进行图像分割的方法相比,FCN有两大明显的优点:一是可以接受任意大小的输入图像,无需要求所有的训练图像和测试图像具有固定的尺寸。二是更加高效,避免了由于使用像素块而带来的重复存储和计算卷积的问题。使用训练的网络对模型推理结果进行展示。

2024-06-30 17:14:29 207

原创 昇思25天学习打卡第11天

语义分割是对图像中每个像素点进行分类,仍是分类问题,故损失函数选择交叉熵损失函数来计算FCN网络输出与mask之间的交叉熵损失。这里我们使用的是mindspore.nn.CrossEntropyLoss()作为损失函数。FCN使用VGG-16作为骨干网络,用于实现图像编码。使用下面代码导入VGG-16预训练模型的部分预训练权重。导入VGG-16预训练参数后,实例化损失函数、优化器,使用Model接口编译网络,训练FCN-8s网络。使用以下代码构建FCN-8s网络。导入VGG-16部分预训练权重。

2024-06-29 20:10:13 195

原创 昇思25天学习打卡第10天

FCN图像语义分割(上)全卷积网络(Fully Convolutional Networks,FCN)是UC Berkeley的Jonathan Long等人于2015年在Fully Convolutional Networks for Semantic Segmentation[1]一文中提出的用于图像语义分割的一种框架。FCN是首个端到端(end to end)进行像素级(pixel level)预测的全卷积网络。

2024-06-28 17:00:28 438

原创 昇思25天学习打卡第9天

使用静态图加速AI编译框架分为两种运行模式,分别是动态图模式以及静态图模式。MindSpore默认情况下是以动态图模式运行,但也支持手工切换为静态图模式。

2024-06-27 17:42:40 161

原创 昇思25天学习打卡第8天

保存与加载本次学习在训练网络模型的过程中,如何保存与加载模型。

2024-06-26 16:25:33 516

原创 昇思25天学习打卡第7天

构建数据集模型训练。

2024-06-25 20:20:15 288

原创 昇思25天学习打卡第6天

函数式自动微分神经网络的训练主要使用反向传播算法,模型预测值(logits)与正确标签(label)送入损失函数(loss function)获得loss,然后进行反向传播计算,求得梯度(gradients),最终更新至模型参数(parameters)。自动微分能够计算可导函数在某点处的导数值,是反向传播算法的一般化。自动微分主要解决的问题是将一个复杂的数学运算分解为一系列简单的基本运算,该功能对用户屏蔽了大量的求导细节和过程,大大降低了框架的使用门槛。

2024-06-24 15:33:38 315

原创 昇思25天学习打卡第5天

网络构建神经网络模型是由神经网络层和Tensor操作构成的,提供了常见神经网络层的实现,在MindSpore中,类是构建所有网络的基类,也是网络的基本单元。一个神经网络模型表示为一个,它由不同的子构成。使用这样的嵌套结构,可以简单地使用面向对象编程的思维,对神经网络结构进行构建和管理。

2024-06-23 10:18:10 321

原创 昇思25天学习打卡第4天

今天进行数据变换的学习通常情况下,直接加载的原始数据并不能直接送入神经网络进行训练,此时我们需要对其进行数据预处理。

2024-06-22 20:32:40 301

原创 昇思25天学习打卡第3天

数据集 Dataset学习MindSpore提供基于Pipeline的,通过和实现高效的数据预处理。

2024-06-21 16:43:20 381

原创 昇思25天学习打卡第二天

张量之间有很多运算,包括算术、线性代数、矩阵处理(转置、标引、切片)、采样等,张量运算和NumPy的使用方式类似,下面介绍其中几种操作。- 维数(ndim): `Tensor`的秩,也就是len(tensor.shape),是一个整数。张量的属性包括形状、数据类型、转置张量、单个元素大小、占用字节数量、维数、元素个数和每一维步长。- 数据类型(dtype):`Tensor`的dtype,是MindSpore的一个数据类型。普通算术运算有:加(+)、减(-)、乘(*)、除(/)、取模(%)、整除(//)。

2024-06-20 20:23:09 229

原创 昇思25天学习打卡第一天

定义训练函数,使用set_train设置为训练模式,执行正向计算、反向传播和参数优化。第一天学习心得:通过MindSpore的API来快速实现一个简单的深度学习模型,首先是处理数据集,MindSpore提供基于Pipeline的。类是构建所有网络的基类,也是网络的基本单元。包含所有网络层的定义,中包含数据(类是构建所有网络的基类,也是网络的基本单元。实现高效的数据预处理,在本次学习中使用Mnist数据集,自动下载完成后,使用提供的数据变换进行预处理。第四步保存模型,模型训练完成后,需要将其参数进行保存。

2024-06-19 18:34:09 335

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除