自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(21)
  • 收藏
  • 关注

原创 昇思训练营打卡第二十天(CycleGAN图像风格迁移互换)

CycleGAN(循环生成对抗网络)是一种生成对抗网络(GAN),它能够在没有成对训练样本的情况下,将一种风格的图片转换成另一种风格。CycleGAN通常用于图像到图像的转换任务,比如将马的图片转换成斑马的图片,或者将夏天的风景转换成冬天的风景。CycleGAN的核心思想是通过两个循环一致性损失来训练两个映射函数:一个将图片从源域X转换到目标域Y,另一个将图片从目标域Y转换回源域X。这样,CycleGAN可以确保在转换过程中保留原始图片的内容。CycleGAN的架构包括两个生成器和一个判别器。

2024-07-09 00:38:07 442

原创 昇思训练营打卡第十九天(基于MobileNetv2的垃圾分类)

MobileNetV2是一种轻量级的深度神经网络模型,专为移动和边缘设备设计。它是MobileNetV1的改进版本,于2018年由Google推出。MobileNetV2基于一个高效的深度可分离卷积架构,它可以显著减少模型的大小和计算成本,同时保持较高的准确性。:MobileNetV2使用深度可分离卷积来代替传统的卷积层,这种结构可以将卷积操作分解为深度卷积和逐点卷积,从而大大减少参数数量和计算量。:MobileNetV2引入了线性瓶颈层,这一层使用线性激活函数(即没有ReLU),以保持特征的完整性。

2024-07-08 00:50:05 493

原创 昇思训练营打卡第十八天(K近邻算法实现红酒聚类)

K近邻(K-Nearest Neighbors,KNN)算法是一种基本的机器学习算法,它既可以用于分类任务,也可以用于回归任务。KNN算法的核心思想是,如果一个新样本在特征空间中的K个最邻近的样本大多数属于某一个类别,那么这个新样本也属于这个类别。

2024-07-07 00:43:04 298

原创 昇思训练营打卡第十七天(基于MindNLP+MusicGen生成自己的个性化音乐)

MindNLP是一个基于MindSpore的自然语言处理(NLP)开源库。它提供了一系列常用的NLP方法,并支持解决各种自然语言处理任务的平台。MindNLP的设计目标是帮助研究人员和开发者更高效地构建和训练模型。TrainerEvaluatorMusicGen 是一个由 Meta(原 Facebook Research)开发的开源 AI 音乐生成模型。这个模型基于 Transformer 架构,能够高效地处理音频和文本数据。

2024-07-06 01:36:34 309

原创 昇思打卡第十六天(Vision Transformer图像分类)

Vision Transformer(ViT)是一种用于图像分类的深度学习模型,它将Transformer架构应用于计算机视觉任务。ViT的主要特点是将图像分割成多个小块(patches),然后将这些块视为序列数据,使用Transformer模型进行处理。这种方法使得ViT能够捕捉到图像中的长距离依赖关系,从而在多个图像分类任务中取得了很好的效果。:将输入图像分割成固定大小的块(例如16x16像素的块)。这些块被视为序列中的元素。:将每个图像块展平并通过一个线性层进行嵌入,得到一个固定大小的向量。

2024-07-05 00:31:18 742

原创 昇思训练营打卡第十五天(SSD目标检测)

SSD,全称Single Shot MultiBox Detector,是Wei Liu在ECCV 2016上提出的一种目标检测算法。使用Nvidia Titan X在VOC 2007测试集上,SSD对于输入尺寸300x300的网络,达到74.3%mAP(mean Average Precision)以及59FPS;对于512x512的网络,达到了76.9%mAP ,超越当时最强的Faster RCNN(73.2%mAP)。具体可参考论文[1]。

2024-07-03 23:27:12 710

原创 昇思打卡第十四天(ShuffleNet图像分类)

ShuffleNetV1是旷视科技提出的一种计算高效的CNN模型,和MobileNet, SqueezeNet等一样主要应用在移动端,所以模型的设计目标就是利用有限的计算资源来达到最好的模型精度。ShuffleNetV1的设计核心是引入了两种操作:Pointwise Group Convolution和Channel Shuffle,这在保持精度的同时大大降低了模型的计算量。因此,ShuffleNetV1和MobileNet类似,都是通过设计更高效的网络结构来实现模型的压缩和加速。

2024-07-03 00:43:02 212

原创 昇思训练营打卡第十三天(ResNet50图像分类)

在ResNet网络提出之前,传统的卷积神经网络都是将一系列的卷积层和池化层堆叠得到的,但当网络堆叠到一定深度时,就会出现退化问题。ResNet网络提出了残差网络结构(Residual Network)来减轻退化问题,使用ResNet网络可以实现搭建较深的网络结构(突破1000层)。

2024-07-02 01:12:42 269

原创 昇思训练营打卡第十二天(ResNet50迁移学习)

ResNet50是一种深度残差网络(Residual Network)模型,它是由微软研究院的研究员Kaiming He等人在2015年提出的一种深度学习模型。ResNet50是其中的一种变体,它有50层深度。ResNet50的核心思想是引入“残差学习”的概念,通过在神经网络中添加“跳跃连接”(skip connections)来解决深度神经网络训练时的梯度消失和梯度爆炸问题。跳跃连接能够将前面层的输出直接传递到后面层,使得信息可以直接流动,从而使得网络可以更好地训练。

2024-07-01 00:28:24 318

原创 昇思训练营打卡第十一天(FCN图像语义分割)

因为模型网络中所有的层都是卷积层,故称为全卷积网络。

2024-06-30 01:04:31 216

原创 昇思训练营打卡第十一天(FCN图像语义分割)

这一部分主要对训练出来的模型效果进行评估,为了便于解释,假设如下:共有 𝑘+1𝑘+1 个类(从 𝐿0𝐿0 到 𝐿𝑘𝐿𝑘, 其中包含一个空类或背景), 𝑝𝑖𝑗𝑝𝑖𝑗 表示本属于𝑖𝑖类但被预测为𝑗𝑗类的像素数量。即, 𝑝𝑖𝑖𝑝𝑖𝑖 表示真正的数量, 而 𝑝𝑖𝑗𝑝𝑗𝑖𝑝𝑖𝑗𝑝𝑗𝑖 则分别被解释为假正和假负, 尽管两者都是假正与假负之和。

2024-06-30 00:54:26 222

原创 昇思训练营打卡第十天(使用静态图加速)

AI编译框架分为两种运行模式,分别是动态图模式以及静态图模式。MindSpore默认情况下是以动态图模式运行,但也支持手工切换为静态图模式。

2024-06-28 22:20:02 657

原创 昇思训练营打卡第九天(保存与加载)

state_dictpickle在保存模型时,应该确保保存的信息足够完整,以便在未来的某个时刻可以准确地恢复模型,包括进行预测或继续训练。通常,还应该保存训练模型的代码、版本号、训练数据的信息以及任何相关的预处理步骤,以确保可重复性和透明度。

2024-06-27 22:28:54 277

原创 昇思训练营打卡第八天(模型训练)

从网络构建中加载代码,构建一个神经网络模型。nn.ReLU(),nn.ReLU(),定义超参、损失函数和优化器超参超参(Hyperparameters)是可以调整的参数,可以控制模型训练优化的过程,不同的超参数值可能会影响模型训练和收敛速度。目前深度学习模型多采用批量随机梯度下降算法进行优化,随机梯度下降算法的原理如下:公式中,$n$是批量大小(batch size),$η$是学习率(learning rate)。

2024-06-26 23:02:27 752

原创 昇思训练营打卡第七天(函数式自动微分)

神经网络的训练主要使用反向传播算法,模型预测值(logits)与正确标签(label)送入损失函数(loss function)获得loss,然后进行反向传播计算,求得梯度(gradients),最终更新至模型参数(parameters)。自动微分能够计算可导函数在某点处的导数值,是反向传播算法的一般化。自动微分主要解决的问题是将一个复杂的数学运算分解为一系列简单的基本运算,该功能对用户屏蔽了大量的求导细节和过程,大大降低了框架的使用门槛。

2024-06-25 22:53:18 338

原创 昇思训练营打卡第六天(网络构建)

当我们定义神经网络时,可以继承nn.Cell类,在__init__方法中进行子Cell的实例化和状态管理,在construct方法中实现Tensor操作。nn.ReLU(),nn.ReLU(),: 这一行定义了一个新的类Network,它继承自nn.Cell。在MindSpore中,Cell是构建神经网络的基本单元。: 定义了类的初始化方法,当创建Network类的实例时,这个方法会被调用。:调用父类Cell的初始化方法。:创建一个Flatten层,用于将输入的数据展平成一维向量。

2024-06-24 23:40:29 775

原创 昇思训练营第5天(数据变换 Transforms)

通常情况下,直接加载的原始数据并不能直接送入神经网络进行训练,此时我们需要对其进行数据预处理。MindSpore提供不同种类的数据变换(Transforms),配合数据处理Pipeline来实现数据预处理。所有的Transforms均可通过map方法传入,实现对指定数据列的处理。

2024-06-23 23:28:23 417

原创 昇思训练营打卡第四天(数据集)

¶模块提供了一些常用的公开数据集和标准格式数据集的加载API。对于MindSpore暂不支持直接加载的数据集,可以构造自定义数据加载类或自定义数据集生成函数的方式来生成数据集,然后通过接口实现自定义方式的数据集加载。

2024-06-22 23:00:10 864

原创 昇思训练营打卡第三天(张量 Tensor)

张量(Tensor)是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。本章介绍了张量的基础计算与应用,以及在稀疏张量中Compressed Sparse Row与Coordinate Format的运用稀疏张量主要运用于推荐系统、分子动力学、图神经网络等,数据的特征是稀疏的,若使用普通张量表征这些数据会引入大量不必要的计算、存储和通讯开销。)是MindSpore网络运算中的基本数据结构,本教程主要介绍张量和稀疏张量的属性及用法。

2024-06-21 22:46:57 562

原创 昇思训练营打卡(第二天)

API(Application Programming Interface)是应用程序开发接口的缩写,意思是一些预设好的函数或方法,这些预设好的函数或方法允许第三方程序通过网络来调用数据或提供基于数据的服务。:由于API封装了内部实现细节,因此在系统需要更新或维护时,只需修改API的实现,而不需要修改使用API的每一个应用。:API提供了一种安全的途径来访问系统功能,因为它们可以限制对特定数据的访问,并且可以监控和限制请求的数量和频率。打印数据集中包含的数据列名,用于dataset的预处理。

2024-06-20 22:54:10 839

原创 昇思打卡营第一天

昇思MindSpore是一个全场景深度学习框架,旨在实现易开发、高效执行、全场景统一部署三大目标。ModelZoo(模型库):ModelZoo提供可用的深度学习算法网络,也欢迎更多开发者贡献新的网络(ModelZoo地址MindSpore Extend(扩展库):昇思MindSpore的领域扩展库,支持拓展新领域场景,如GNN/深度概率编程/强化学习等,期待更多开发者来一起贡献和构建。MindSpore Science(科学计算)

2024-06-19 21:58:39 439

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除