自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(25)
  • 收藏
  • 关注

原创 昇思25天学习打卡营第二十五天|SSD目标检测

SSD,全称Single Shot MultiBox Detector,是Wei Liu在ECCV 2016上提出的一种目标检测算法。使用Nvidia Titan X在VOC 2007测试集上,SSD对于输入尺寸300x300的网络,达到74.3%mAP(mean Average Precision)以及59FPS;对于512x512的网络,达到了76.9%mAP ,超越当时最强的Faster RCNN(73.2%mAP)。具体可参考论文[1]。

2024-07-18 09:01:52 795

原创 昇思25天学习打卡营第二十四天|ShuffleNet图像分类

ShuffleNetV1是旷视科技提出的一种计算高效的CNN模型,和MobileNet, SqueezeNet等一样主要应用在移动端,所以模型的设计目标就是利用有限的计算资源来达到最好的模型精度。ShuffleNetV1的设计核心是引入了两种操作:Pointwise Group Convolution和Channel Shuffle,这在保持精度的同时大大降低了模型的计算量。因此,ShuffleNetV1和MobileNet类似,都是通过设计更高效的网络结构来实现模型的压缩和加速。

2024-07-17 09:48:47 994

原创 昇思25天学习打卡营第二十三天|ResNet50图像分类

ResNet50网络是2015年由微软实验室的何恺明提出,获得ILSVRC2015图像分类竞赛第一名。在ResNet网络提出之前,传统的卷积神经网络都是将一系列的卷积层和池化层堆叠得到的,但当网络堆叠到一定深度时,就会出现退化问题。下图是在CIFAR-10数据集上使用56层网络与20层网络训练误差和测试误差图,由图中数据可以看出,56层网络比20层网络训练误差和测试误差更大,随着网络的加深,其误差并没有如预想的一样减小。

2024-07-16 08:37:29 710

原创 昇思25天学习打卡营第二十二天|ResNet50迁移学习

普遍的做法是,在一个非常大的基础数据集上训练得到一个预训练模型,然后使用该模型来初始化网络的权重参数或作为固定特征提取器应用于特定的任务中。本章将使用迁移学习的方法对ImageNet数据集中的狼和狗图像进行分类。开始训练模型,与没有预训练模型相比,将节约一大半时间,因为此时可以不用计算部分梯度。,数据集中的图像来自于ImageNet,每个分类有大约120张训练图像与30张验证图像。对获取到的图像及标签数据进行可视化,标题为图像对应的label名称。接口下载数据集,并将下载后的数据集自动解压到当前目录下。

2024-07-15 07:46:47 330

原创 昇思25天学习打卡营第二十一天|FCN图像语义分割

FCN主要用于图像分割领域,是一种端到端的分割方法,是深度学习应用在图像语义分割的开山之作。通过进行像素级的预测直接得出与原图大小相等的label map。因FCN丢弃全连接层替换为全卷积层,网络所有层均为卷积层,故称为全卷积网络。全卷积神经网络主要使用以下三种技术:卷积化(Convolutional)使用VGG-16作为FCN的backbone。VGG-16的输入为224*224的RGB图像,输出为1000个预测值。VGG-16只能接受固定大小的输入,丢弃了空间坐标,产生非空间输出。

2024-07-14 09:01:19 818

原创 昇思25天学习打卡营第二十天|基于MobileNetv2的垃圾分类

MobileNet网络是由Google团队于2017年提出的专注于移动端、嵌入式或IoT设备的轻量级CNN网络,相比于传统的卷积神经网络,MobileNet网络使用深度可分离卷积(Depthwise Separable Convolution)的思想在准确率小幅度降低的前提下,大大减小了模型参数与运算量。并引入宽度系数 α和分辨率系数 β使模型满足不同应用场景的需求。

2024-07-13 09:14:01 1170

原创 昇思25天学习打卡营第十九天|K近邻算法实现红酒聚类

K近邻算法(K-Nearest-Neighbor, KNN)是一种用于分类和回归的非参数统计方法,最初由 Cover和Hart于1968年提出(Cover等人,1967),是机器学习最基础的算法之一。它正是基于以上思想:要确定一个样本的类别,可以计算它与所有训练样本的距离,然后找出和该样本最接近的k个样本,统计出这些样本的类别并进行投票,票数最多的那个类就是分类的结果。KNN的三个基本要素:K值,一个样本的分类是由K个邻居的“多数表决”确定的。K值越小,容易受噪声影响,反之,会使类别之间的界限变得模糊。

2024-07-12 10:29:34 1113

原创 昇思25天学习打卡营第十八天|基于MindNLP+MusicGen生成自己的个性化音乐

今天是第十八天,课程内容是音乐生成,很有趣的一节课。记录一下学习内容。

2024-07-11 11:10:03 1074

原创 昇思25天学习打卡营第十七天|文本解码原理--以MindNLP为例

今天是第十七天,学习的内容是文本解码原理。记录一下学习内容。

2024-07-10 10:00:46 609

原创 昇思25天学习打卡营第十六天|基于MindSpore的GPT2文本摘要

数据集加载本次实验使用的是nlpcc2017摘要数据,内容为新闻正文及其摘要,总计50000个样本。数据预处理因GPT2无中文的tokenizer,我们使用BertTokenizer替代。

2024-07-09 09:55:49 505

原创 昇思25天学习打卡营第十五天|基于 MindSpore 实现 BERT 对话情绪识别

BERT全称是来自变换器的双向编码器表征量(Bidirectional Encoder Representations from Transformers),它是Google于2018年末开发并发布的一种新型语言模型。与BERT模型相似的预训练语言模型例如问答、命名实体识别、自然语言推理、文本分类等在许多自然语言处理任务中发挥着重要作用。模型是基于Transformer中的Encoder并加上双向的结构,因此一定要熟练掌握Transformer的Encoder的结构。

2024-07-08 10:39:11 800

原创 昇思25天学习打卡营第十四天|Pix2Pix实现图像转换

Pix2Pix是基于条件生成对抗网络(cGAN, Condition Generative Adversarial Networks )实现的一种深度学习图像转换模型,该模型是由Phillip Isola等作者在2017年CVPR上提出的,可以实现语义/标签到真实图片、灰度图到彩色图、航空图到地图、白天到黑夜、线稿图到实物图的转换。生成器和判别器。传统上,尽管此类任务的目标都是相同的从像素预测像素,但每项都是用单独的专用机器来处理的。

2024-07-07 09:59:29 891

原创 昇思25天学习打卡营第十三天|GAN图像生成

生成式对抗网络(Generative Adversarial Networks,GAN)是一种生成式机器学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。最初,GAN由Ian J. Goodfellow于2014年发明,并在论文生成器的任务是生成看起来像训练图像的“假”图像;判别器需要判断从生成器输出的图像是真实的训练图像还是虚假的图像。GAN通过设计生成模型和判别模型这两个模块,使其互相博弈学习产生了相当好的输出。GAN模型的核心在于提出了通过对抗过程来估计生成模型这一全新框架。

2024-07-06 10:40:44 775

原创 昇思25天学习打卡营第十二天|Diffusion扩散模型

如果将Diffusion与其他生成模型(如Normalizing Flows、GAN或VAE)进行比较,它并没有那么复杂,它们都将噪声从一些简单分布转换为数据样本,Diffusion也是从纯噪声开始通过一个神经网络学习逐步去噪,最终得到一个实际图像。Diffusion对于图像的处理包括以下两个过程:我们选择的固定(或预定义)正向扩散过程qqq:它逐渐将高斯噪声添加到图像中,直到最终得到纯噪声一个学习的反向去噪的扩散过程pθp_\thetapθ​。

2024-07-05 10:36:04 1053

原创 昇思25天学习打卡营第十一天|DCGAN生成漫画头像

输入是3x64x64的图像,输出是该图像为真图像的概率。训练判别器的目的是最大程度地提高判别图像真伪的概率。按照Goodfellow的方法,是希望通过提高其随机梯度来更新判别器,所以我们要最大化。由于数据是图像,这一过程也会创建与真实图像大小相同的 RGB 图像。DCGAN论文提到,使用卷积而不是通过池化来进行下采样是一个好方法,因为它可以让网络学习自己的池化特征。在这两个部分中,分别获取训练过程中的损失,并在每个周期结束时进行统计,将。是一个二分类网络模型,输出判定该图像为真实图的概率。

2024-07-04 10:04:16 1169

原创 昇思25天学习打卡营第十天|CycleGAN图像风格迁移互换

实战营提供CPU和GPU两种环境,本案例运行需要较大内存,建议在Ascend/GPU上运行。CycleGAN(Cycle Generative Adversarial Network) 即循环对抗生成网络,来自论文。该模型实现了一种在没有配对示例的情况下学习将图像从源域 X 转换到目标域 Y 的方法。该模型一个重要应用领域是域迁移(Domain Adaptation),可以通俗地理解为图像风格迁移。

2024-07-03 11:00:20 819

原创 昇思25天学习打卡营第九天|使用静态图加速

之前一直不是很理解静态图和动态图。这次学习算是理解了,巨大进步啊。

2024-07-02 10:34:39 1029

原创 昇思25天学习打卡营第八天|保存与加载

打卡营第八天,今天学习的内容是模型保存与加载。

2024-07-01 11:31:07 157

原创 昇思25天学习打卡营第七天|模型训练

从网络构建中加载代码,构建一个神经网络模型。超参(Hyperparameters)是可以调整的参数,可以控制模型训练优化的过程,不同的超参数值可能会影响模型训练和收敛速度。wt1wt−η1n∑x∈B∇lxwtwt1​wt​−ηn1​x∈B∑​∇lxwt​公式中,nnn是批量大小(batch size),ηηη是学习率(learning rate)。另外,wtw_{t}wt​为训练轮次ttt中的权重参数,

2024-06-30 10:00:51 1002

原创 昇思25天学习打卡营第六天|函数式自动微分

为了理解这一节,我复习了大学的微积分课程。大家也要一起加油啊。

2024-06-29 11:15:49 1176

原创 昇思25天学习打卡营第五天|网络构建

当我们定义神经网络时,可以继承nn.Cell类,在__init__方法中进行子Cell的实例化和状态管理,在construct方法中实现Tensor操作。construct意为神经网络(计算图)构建,相关内容详见使用静态图加速。网络构建概念比较多,学习比较难。做个记录,方便后免费复习。

2024-06-28 10:21:21 458

原创 昇思25天学习打卡营第四天|数据变换Transforms

今天的内容理解有一点难度,不过还好有老师可以问问题。

2024-06-27 11:11:04 699

原创 昇思25天学习打卡营第三天|数据集Dataset

模块提供了一些常用的公开数据集和标准格式数据集的加载API。对于MindSpore暂不支持直接加载的数据集,可以构造自定义数据加载类或自定义数据集生成函数的方式来生成数据集,然后通过接口实现自定义方式的数据集加载。支持通过可随机访问数据集对象、可迭代数据集对象和生成器(generator)构造自定义数据集,下面分别对其进行介绍。

2024-06-26 10:04:11 1116

原创 昇思25天学习打卡营第二天|张量 Tensor

很好的训练营,有算力配置,还有小伙伴同学互相激励,欢迎大家报名啊。

2024-06-25 16:17:39 841

原创 昇思25天学习打卡营第一天|快速入门

报名参加了昇思25天学习营,记录一下第一天学习的内容。

2024-06-25 00:21:24 254

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除