自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(26)
  • 收藏
  • 关注

原创 git how to fix conflict(git中解决冲突问题)

git 发生conflict时应该怎么办?这里列举了三个方案,但是都有其劣势,斟酌之后再决定如何处理。

2024-07-21 03:29:03 141

原创 《昇思25天学习打卡营第25天|自然语言处理-LSTM+CRF序列标注》

序列标注指给定输入序列,给序列中每个Token进行标注标签的过程。序列标注问题通常用于从文本中进行信息抽取,包括分词(Word Segmentation)、词性标注(Position Tagging)、命名实体识别(Named Entity Recognition, NER)等。如上表所示,清华大学和北京是地名,需要将其识别,我们对每个输入的单词预测其标签,最后根据标签来识别实体。

2024-07-18 19:59:19 882

原创 《昇思25天学习打卡营第24天|生成式-Pix2Pix实现图像转换》

Pix2Pix是基于条件生成对抗网络(cGAN, Condition Generative Adversarial Networks )实现的一种深度学习图像转换模型该网络学习从输入图像到输出图像的映射,如 Isola 等人在 Image-to-image translation with conditional adversarial networks (2017 年)中所述 。pix2pix 非特定于应用,它可以应用于多种任务,包括从标签地图合成照片,从黑白图像生成彩色照片,将 Google Maps

2024-07-18 18:44:23 866

原创 《昇思25天学习打卡营第23天|生成式-GAN图像生成》

MNIST手写数字数据集是NIST数据集的子集,共有70000张手写数字图片,包含60000张训练样本和10000张测试样本,数字图片为二进制文件,图片大小为28*28,单通道。图片已经预先进行了尺寸归一化和中心化处理。本案例将使用MNIST手写数字数据集来训练一个生成式对抗网络,使用该网络模拟生成手写数字图片。

2024-07-18 01:34:05 1032

原创 《昇思25天学习打卡营第22天|生成式-Diffusion扩散模型》

如果将Diffusion与其他生成模型(如Normalizing Flows、GAN或VAE)进行比较,它并没有那么复杂,它们都将噪声从一些简单分布转换为数据样本,Diffusion也是从纯噪声开始通过一个神经网络学习逐步去噪,最终得到一个实际图像。Diffusion对于图像的处理包括以下两个过程:我们选择的固定(或预定义)正向扩散过程qqq:它逐渐将高斯噪声添加到图像中,直到最终得到纯噪声一个学习的反向去噪的扩散过程pθp_\thetapθ​。

2024-07-18 01:14:20 1073

原创 《昇思25天学习打卡营第21天|生成式-DCGAN生成漫画头像》

在下面的教程中,我们将通过示例代码说明DCGAN网络如何设置网络、优化器、如何计算损失函数以及如何初始化模型权重。在本教程中,使用的共有70,171张动漫头像图片,图片大小均为96*96。

2024-07-17 20:41:54 1049

原创 《昇思25天学习打卡营第20天|生成式-CycleGAN图像风格迁移互换》

CycleGAN(Cycle Generative Adversarial Network) 即循环对抗生成网络,来自论文。该模型实现了一种在没有配对示例的情况下学习将图像从源域 X 转换到目标域 Y 的方法。该模型一个重要应用领域是域迁移(Domain Adaptation),可以通俗地理解为图像风格迁移。

2024-07-16 21:03:56 500

原创 《昇思25天学习打卡营第19天|热门LLM及其他AI应用-基于MindNLP+基于MobileNetv2的垃圾分类函数式自动微分》

MobileNet网络是由Google团队于2017年提出的专注于移动端、嵌入式或IoT设备的轻量级CNN网络,相比于传统的卷积神经网络,MobileNet网络使用深度可分离卷积(Depthwise Separable Convolution)的思想在准确率小幅度降低的前提下,大大减小了模型参数与运算量。并引入宽度系数 α和分辨率系数 β使模型满足不同应用场景的需求。MobileNetV2 是由google团队在 2018 年提出的,相比于 MobileNetV1 而言准确率更高,模型更小。其原始论文为。

2024-07-16 14:35:28 918

原创 《昇思25天学习打卡营第18天|热门LLM及其他AI应用-基于MindNLP+基于MindSpore的红酒分类实验》

K近邻算法(K-Nearest-Neighbor, KNN)是一种用于分类和回归的非参数统计方法,最初由 Cover和Hart于1968年提出(Cover等人,1967),是机器学习最基础的算法之一。它正是基于以上思想:要确定一个样本的类别,可以计算它与所有训练样本的距离,然后找出和该样本最接近的k个样本,统计出这些样本的类别并进行投票,票数最多的那个类就是分类的结果。KNN的三个基本要素:K值,一个样本的分类是由K个邻居的“多数表决”确定的。K值越小,容易受噪声影响,反之,会使类别之间的界限变得模糊。

2024-07-15 21:34:55 1337

原创 《昇思25天学习打卡营第17天|热门LLM及其他AI应用-基于MindNLP+MusicGen生成自己的个性化音乐》

MusicGen是来自Meta AI的Jade Copet等人提出的基于单个语言模型(LM)的音乐生成模型,能够根据文本描述或音频提示生成高质量的音乐样本,相关研究成果参考论文《MusicGen是一种单个语言模型(LM),它可以在多个压缩的离散音乐表示(即,令牌)流上运行。与先前的工作不同,MusicGen由单阶段变换器LM和高效的令牌交织模式组成,无需像分层或上采样那样级联多个模型。

2024-07-15 17:56:22 1204

原创 《昇思25天学习打卡营第16天|计算机视觉-Vision Transformer图像分类》

近些年,随着基于自注意(Self-Attention)结构的模型的发展,特别是Transformer模型的提出,极大地促进了自然语言处理模型的发展。由于Transformers的计算效率和可扩展性,它已经能够训练具有超过100B参数的空前规模的模型。ViT则是自然语言处理和计算机视觉两个领域的融合结晶。在不依赖卷积操作的情况下,依然可以在图像分类任务上达到很好的效果。本案例完成了一个ViT模型在ImageNet数据上进行训练,验证和推理的过程,其中,对关键的ViT模型结构和原理作了讲解。

2024-07-12 17:15:00 1372

原创 《昇思25天学习打卡营第15天|计算机视觉-SSD目标检测》

SSD,全称Single Shot MultiBox Detector,是Wei Liu在ECCV 2016上提出的一种目标检测算法。使用Nvidia Titan X在VOC 2007测试集上,SSD对于输入尺寸300x300的网络,达到74.3%mAP(mean Average Precision)以及59FPS;对于512x512的网络,达到了76.9%mAP ,超越当时最强的Faster RCNN(73.2%mAP)。具体可参考论文[1]。

2024-07-12 00:03:31 589

原创 《昇思25天学习打卡营第14天|计算机视觉-ShuffleNet图像分类》

ShuffleNetV1是旷视科技提出的一种计算高效的CNN模型,和MobileNet, SqueezeNet等一样主要应用在移动端,所以模型的设计目标就是利用有限的计算资源来达到最好的模型精度。ShuffleNetV1的设计核心是引入了两种操作:Pointwise Group Convolution和Channel Shuffle,这在保持精度的同时大大降低了模型的计算量。因此,ShuffleNetV1和MobileNet类似,都是通过设计更高效的网络结构来实现模型的压缩和加速。

2024-07-10 22:26:25 1366

原创 《昇思25天学习打卡营第13天|计算机视觉-ResNet50图像分类》

ResNet50网络是2015年由微软实验室的何恺明提出,获得ILSVRC2015图像分类竞赛第一名。在ResNet网络提出之前,传统的卷积神经网络都是将一系列的卷积层和池化层堆叠得到的,但当网络堆叠到一定深度时,就会出现退化问题。下图是在CIFAR-10数据集上使用56层网络与20层网络训练误差和测试误差图,由图中数据可以看出,56层网络比20层网络训练误差和测试误差更大,随着网络的加深,其误差并没有如预想的一样减小。

2024-07-09 22:58:10 1133

原创 《昇思25天学习打卡营第12天|计算机视觉-ResNet50迁移学习》

在实际应用场景中,由于训练数据集不足,所以很少有人会从头开始训练整个网络。普遍的做法是,在一个非常大的基础数据集上训练得到一个预训练模型,然后使用该模型来初始化网络的权重参数或作为固定特征提取器应用于特定的任务中。本章将使用迁移学习的方法对ImageNet数据集中的狼和狗图像进行分类。迁移学习详细内容见。

2024-07-07 23:38:17 1105

原创 《昇思25天学习打卡营第11天|计算机视觉-FCN图像语义分割》

卷积神经网络(cnn)在图像分类方面取得了巨大的成功(如AlexNet和GoogLeNet),在从固定大小的图像学习到单个类别标签方面做得非常好。通常,图像将经过几个卷积层,然后是全连接层,给出固定大小(等于类的数量)的输出,其相对于ground truth标签的softmax损失将被计算并反向传播以更新参数。FCN主要用于图像分割领域,是一种端到端的分割方法,是深度学习应用在图像语义分割的开山之作。通过进行像素级的预测直接得出与原图大小相等的label map。

2024-07-07 19:43:21 1403

原创 《昇思25天学习打卡营第10天|使用静态图加速》

该AI编译框架分为两种运行模式,分别是动态图模式以及静态图模式。MindSpore默认情况下是以动态图模式运行,但也支持手工切换为静态图模式。

2024-07-05 23:12:57 827

原创 《昇思25天学习打卡营第9天|保存与加载》

在训练网络模型的过程中,实际上我们希望保存中间和最后的结果,用于微调(fine-tune)和后续的模型推理与部署,本章节将介绍如何保存与加载模型。MindIR同时保存了Checkpoint和模型结构,因此需要定义输入Tensor来获取输入shape。除Checkpoint外,MindSpore提供了云侧(训练)和端侧(推理)统一的。是未被加载的参数列表,为空时代表所有参数均加载成功。要加载模型权重,需要先创建相同模型的实例,然后使用。接口直接将模型保存为MindIR。已有的MindIR模型可以通过。

2024-07-04 23:53:54 394

原创 《昇思25天学习打卡营第8天|模型训练》

从网络构建中加载代码,构建一个神经网络模型。nn.ReLU(),nn.ReLU(),超参(Hyperparameters)是可以调整的参数,可以控制模型训练优化的过程,不同的超参数值可能会影响模型训练和收敛速度。wt1wt−η1n∑x∈B∇lxwtwt1​wt​−ηn1​x∈B∑​∇lxwt​公式中,nnn是批量大小(batch size),ηηη是学习率(learning rate)。另外,wtw_{t}w。

2024-07-04 00:50:46 788

原创 《昇思25天学习打卡营第7天|函数式自动微分》

神经网络的训练主要使用反向传播算法,模型预测值(logits)与正确标签(label)送入损失函数(loss function)获得loss,然后进行反向传播计算,求得梯度(gradients),最终更新至模型参数(parameters)。自动微分主要解决的问题是将一个复杂的数学运算分解为一系列简单的基本运算,该功能对用户屏蔽了大量的求导细节和过程,大大降低了框架的使用门槛。通常我们会将函数的loss设置为函数的第一个输出,其他的输出即为辅助数据。获得微分函数是一种函数变换,即输入为函数,输出也为函数。

2024-07-03 01:20:36 928

原创 《昇思25天学习打卡营第6天|网络构建》

在定义神经网络时,可以继承nn.Cell类,在__init__方法中进行子Cell的实例化和状态管理,在construct方法中实现Tensor操作。construct意为神经网络(计算图)构建,相关内容详见使用静态图加速。nn.ReLU(),nn.ReLU(),Network

2024-07-02 01:18:36 994

原创 《昇思25天学习打卡营第5天|数据变换Transforms》

一般情况下,直接加载的原始数据并不能直接放到神经网络进行训练,此时我们需要对其进行数据预处理。MindSpore提供不同数据类型的数据变换(Transforms),配合数据处理Pipeline来实现数据预处理。Lambda Transforms可以加载任意定义的Lambda函数,提供足够的灵活度。这里简单介绍其使用方法。此模块用于通用数据增强,其中一部分增强操作是用C++实现的,具有较好的高性能,另一部分是基于Python实现,使用了NumPy模块作为支持。操作将此分词器应用到输入的文本中,对其进行分词。

2024-07-01 00:58:02 643

原创 《昇思25天学习打卡营第4天|数据集Dataset》

模块提供了一些常用的公开数据集和标准格式数据集的加载API。对于MindSpore暂不支持直接加载的数据集,可以构造自定义数据加载类或自定义数据集生成函数的方式来生成数据集,然后通过接口实现自定义方式的数据集加载。支持通过可随机访问数据集对象、可迭代数据集对象和生成器(generator)构造自定义数据集,下面分别对其进行介绍。

2024-06-30 02:02:50 1061

原创 《昇思25天学习打卡营第3天|张量Tensor》

张量是一种数据结构,它存储了一组数字,且这些数字需要通过多个索引进行访问。在深度学习的背景中,张量是泛化到更高维度的向量和矩阵。

2024-06-29 00:30:37 721

原创 《昇思25天学习打卡营第2天|快速入门》

该板块主要介绍如何构建一个基于MNIST数据集的手写数字识别。

2024-06-28 01:44:54 1032

原创 《昇思25天学习打卡营第1天|基本介绍》

该模型库推出了MindSpore CV/NLP/Audio/Yolo/OCR等系列可以让开发者从Pytorch或tensorflow转为Mindspore的时候也能用这些库的Mindspore版本,并且该仓还提供分布式的解决方案。:工具可以将训练过程可视化还能生成训练看板,通过调用MindSpore Profiler相关接口可分析训练性能数据。这第一节课程主要介绍了昇思MindSpore的总体架构以及相关的开发工具和执行流程。:AI安全与隐私保护工具,提供AI模型安全评估、模型混淆、隐私数据保护等能力。

2024-06-26 11:43:41 161

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除