自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(15)
  • 收藏
  • 关注

原创 昇思25天学习打卡营第15天|CycleGAN图像风格迁移互换

在第15天的学习打卡营中,通过CycleGAN的图像风格迁移互换实验,我学习了CycleGAN是一种无需成对示例的图像到图像迁移模型,适用于无监督学习。它通过生成器和判别器的对抗训练实现域迁移,即图像风格的转换。了解了CycleGAN如何将一种图像风格转换为另一种风格,解决了现实中难以找到成对训练数据的问题。这对于需要转换图像风格的应用场景非常有用,如艺术风格转换、照片增强等。

2024-07-16 08:54:34 678

原创 昇思25天学习打卡营第14天|基于MobileNetv2的垃圾分类

MobileNet网络是由Google团队于2017年提出的专注于移动端、嵌入式或IoT设备的轻量级CNN网络,相比于传统的卷积神经网络,MobileNet网络使用深度可分离卷积(Depthwise Separable Convolution)的思想在准确率小幅度降低的前提下,大大减小了模型参数与运算量。并引入宽度系数 α和分辨率系数 β使模型满足不同应用场景的需求。

2024-07-14 21:58:26 646

原创 昇思25天学习打卡营第13天|K近邻算法实现红酒聚类¶、基于MindNLP+MusicGen生成自己的个性化音乐¶

K近邻算法(K-Nearest-Neighbor, KNN)是一种用于分类和回归的非参数统计方法,最初由 Cover和Hart于1968年提出(Cover等人,1967),是机器学习最基础的算法之一。它正是基于以上思想:要确定一个样本的类别,可以计算它与所有训练样本的距离,然后找出和该样本最接近的k个样本,统计出这些样本的类别并进行投票,票数最多的那个类就是分类的结果。KNN的三个基本要素:K值,一个样本的分类是由K个邻居的“多数表决”确定的。K值越小,容易受噪声影响,反之,会使类别之间的界限变得模糊。

2024-07-13 20:39:29 682

原创 昇思25天学习打卡营第12天|Vision Transformer图像分类、SSD目标检测

近些年,随着基于自注意(Self-Attention)结构的模型的发展,特别是Transformer模型的提出,极大地促进了自然语言处理模型的发展。由于Transformers的计算效率和可扩展性,它已经能够训练具有超过100B参数的空前规模的模型。ViT则是自然语言处理和计算机视觉两个领域的融合结晶。在不依赖卷积操作的情况下,依然可以在图像分类任务上达到很好的效果。本案例完成了一个ViT模型在ImageNet数据上进行训练,验证和推理的过程,其中,对关键的ViT模型结构和原理作了讲解。

2024-07-12 22:56:43 1060

原创 昇思25天学习打卡营第11天|ResNet50图像分类、ShuffleNet图像分类¶

ResNet50网络是2015年由微软实验室的何恺明提出,获得ILSVRC2015图像分类竞赛第一名。在ResNet网络提出之前,传统的卷积神经网络都是将一系列的卷积层和池化层堆叠得到的,但当网络堆叠到一定深度时,就会出现退化问题。下图是在CIFAR-10数据集上使用56层网络与20层网络训练误差和测试误差图,由图中数据可以看出,56层网络比20层网络训练误差和测试误差更大,随着网络的加深,其误差并没有如预想的一样减小。

2024-07-11 09:01:09 642

原创 昇思25天学习打卡营第10天|FCN图像语义分割、ResNet50迁移学习

ResNet50网络是2015年由微软实验室的何恺明提出,获得ILSVRC2015图像分类竞赛第一名。在ResNet网络提出之前,传统的卷积神经网络都是将一系列的卷积层和池化层堆叠得到的,但当网络堆叠到一定深度时,就会出现退化问题。下图是在CIFAR-10数据集上使用56层网络与20层网络训练误差和测试误差图,由图中数据可以看出,56层网络比20层网络训练误差和测试误差更大,随着网络的加深,其误差并没有如预想的一样减小。

2024-07-04 21:54:09 777

原创 昇思25天学习打卡营第9天|FCN图像语义分割、ResNet50迁移学习

FCN主要用于图像分割领域,是一种端到端的分割方法,是深度学习应用在图像语义分割的开山之作。通过进行像素级的预测直接得出与原图大小相等的label map。因FCN丢弃全连接层替换为全卷积层,网络所有层均为卷积层,故称为全卷积网络。全卷积神经网络主要使用以下三种技术:卷积化(Convolutional)使用VGG-16作为FCN的backbone。VGG-16的输入为224*224的RGB图像,输出为1000个预测值。VGG-16只能接受固定大小的输入,丢弃了空间坐标,产生非空间输出。

2024-07-03 23:59:13 900

原创 昇思25天学习打卡营第8天|RNN实现情感分类¶

最后我们设计一个预测函数,实现开头描述的效果,输入一句评价,获得评价的情感分类。将输入句子进行分词;使用词表获取对应的index id序列;index id序列转为Tensor;送入模型获得预测结果;打印输出预测结果。最后我们预测开头的样例,可以看到模型可以很好地将评价语句的情感进行分类。今天是昇思25天学习打卡营的第八天,我学习了使用RNN实现情感分类的知识。情感分类是自然语言处理中的经典任务。

2024-07-01 20:31:23 700

原创 ​​​​昇思25天学习打卡营第7天|LSTM+CRF序列标注¶

序列标注指给定输入序列,给序列中每个Token进行标注标签的过程。序列标注问题通常用于从文本中进行信息抽取,包括分词(Word Segmentation)、词性标注(Position Tagging)、命名实体识别(Named Entity Recognition, NER)等。输入序列清华大学座落于首都北京输出标注BIIIOOOOOBI如上表所示,清华大学和北京是地名,需要将其识别,我们对每个输入的单词预测其标签,最后根据标签来识别实体。

2024-06-26 20:57:06 749

原创 ​​昇思25天学习打卡营第6天|使用静态图加速

在昇思25天学习打卡营的第六天,我学习了如何使用静态图加速神经网络模型的运行。MindSpore支持动态图和静态图两种运行模式,其中静态图模式可以通过编译优化实现性能提升。虽然静态图模式需要先编译后执行,可能存在编译耗时,但在Tensor数据的计算和微分处理方面效果显著。通过jit装饰器,可以对想要优化的部分进行图编译加速,而保留动态图的灵活性。这种方式能够有效提高模型的运行速度,为性能优化提供了重要途径。

2024-06-25 21:17:58 722

原创 ​​昇思25天学习打卡营第5天|模型训练、保存与加载

从网络构建中加载代码,构建一个神经网络模型。nn.ReLU(),nn.ReLU(),超参(Hyperparameters)是可以调整的参数,可以控制模型训练优化的过程,不同的超参数值可能会影响模型训练和收敛速度。目前深度学习模型多采用批量随机梯度下降算法进行优化,随机梯度下降算法的原理如下:公式中,𝑛𝑛是批量大小(batch size),ηη是学习率(learning rate)。另外,𝑤𝑡𝑤𝑡为训练轮次𝑡𝑡中的权重参数,∇𝑙∇𝑙为损失函数的导数。

2024-06-24 23:49:34 760

原创 昇思25天学习打卡营第4天|函数式自动微分¶

今天是昇思MindSpore打卡营的第四天,我学习了函数式自动微分的知识。神经网络的训练过程中,反向传播算法通过计算梯度来更新模型参数,函数式自动微分在此过程中起到了关键作用。自动微分能够自动计算可导函数在某点处的导数值,将复杂的数学运算分解为一系列简单的基本运算。这种机制对用户屏蔽了求导的细节和过程,使得我们可以专注于模型的设计和训练,大大降低了使用门槛。在实际操作中,我体会到了自动微分的便利性。通过MindSpore的自动微分功能,我们可以轻松地进行反向传播计算,获取梯度,并更新模型参数。

2024-06-22 21:36:55 592

原创 昇思25天学习打卡营第3天|数据变换、网络构建

当我们定义神经网络时,可以继承nn.Cell类,在__init__方法中进行子Cell的实例化和状态管理,在construct方法中实现Tensor操作。construct意为神经网络(计算图)构建,相关内容详见使用静态图加速。nn.ReLU(),nn.ReLU(),我们构造一个输入数据,直接调用模型,可以获得一个十维的Tensor输出,其包含每个类别的原始预测值。方法不可直接调用在此基础上,我们通过一个nn.Softmax层实例来获得预测概率。

2024-06-21 21:24:24 822

原创 昇思25天学习打卡营第2天|数据集

模块提供了一些常用的公开数据集和标准格式数据集的加载API。对于MindSpore暂不支持直接加载的数据集,可以构造自定义数据加载类或自定义数据集生成函数的方式来生成数据集,然后通过接口实现自定义方式的数据集加载。支持通过可随机访问数据集对象、可迭代数据集对象和生成器(generator)构造自定义数据集,下面分别对其进行介绍。今天是昇思MindSpore打卡营的第二天,我学习了关于数据集的知识,并进行了实际操作。通过MindSpore的数据引擎,我了解到高效的数据预处理对于深度学习模型的训练至关重要。

2024-06-20 21:21:18 793

原创 昇思打卡营第1天,今天学习了打卡营的第一节,基本介绍、快速入门、张量

首先,MindSpore的三个主要目标给我留下了深刻的印象:易开发、高效执行和全场景统一部署。在API方面,MindSpore提供了高、中、低三个层次的API,满足不同层次开发者的需求。特别是关于张量的部分,张量是MindSpore中网络运算的基本数据结构,类似于数组和矩阵。今天是昇思MindSpore打卡营的第一天,我学习了关于MindSpore的基本介绍、快速入门以及张量的相关知识。作为一个新手,我对接下来的课程充满期待,希望能在后续学习中更深入地掌握MindSpore的使用技巧和实战经验。

2024-06-19 16:57:45 186

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除