![](https://img-blog.csdnimg.cn/direct/61a878a21a8d4b62bb69b7f15ac86f2c.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
昇思25天学习打卡
文章平均质量分 82
25天从入门到实践mindspore
子殊
还未毕业......
展开
-
昇思25天学习打卡营第二十五天|MindNLP ChatGLM-6B StreamChat
【代码】昇思25天学习打卡营第二十五天|MindNLP ChatGLM-6B StreamChat。原创 2024-07-13 18:27:38 · 153 阅读 · 0 评论 -
昇思25天学习打卡营第二十四天|基于MindSpore通过GPT实现情感分类
【代码】昇思25天学习打卡营第二十四天|基于MindSpore通过GPT实现情感分类。原创 2024-07-12 17:53:33 · 415 阅读 · 0 评论 -
昇思25天学习打卡营第二十三天|基于MindSpore的GPT2文本摘要
数据集加载本次实验使用的是nlpcc2017摘要数据,内容为新闻正文及其摘要,总计50000个样本。数据预处理因GPT2无中文的tokenizer,我们使用BertTokenizer替代。原创 2024-07-11 12:12:43 · 215 阅读 · 0 评论 -
昇思25天学习打卡营第二十二天|基于 MindSpore 实现 BERT 对话情绪识别
BERT全称是来自变换器的双向编码器表征量(Bidirectional Encoder Representations from Transformers),它是Google于2018年末开发并发布的一种新型语言模型。与BERT模型相似的预训练语言模型例如问答、命名实体识别、自然语言推理、文本分类等在许多自然语言处理任务中发挥着重要作用。模型是基于Transformer中的Encoder并加上双向的结构,因此一定要熟练掌握Transformer的Encoder的结构。原创 2024-07-10 18:49:17 · 719 阅读 · 0 评论 -
昇思25天学习打卡营第二十一天|RNN实现情感分类
最后我们设计一个预测函数,实现开头描述的效果,输入一句评价,获得评价的情感分类。将输入句子进行分词;使用词表获取对应的index id序列;index id序列转为Tensor;送入模型获得预测结果;打印输出预测结果。原创 2024-07-09 19:12:27 · 936 阅读 · 0 评论 -
昇思25天学习打卡营第二十天|Pix2Pix实现图像转换
Pix2Pix是基于条件生成对抗网络(cGAN, Condition Generative Adversarial Networks )实现的一种深度学习图像转换模型,该模型是由Phillip Isola等作者在2017年CVPR上提出的,可以实现语义/标签到真实图片、灰度图到彩色图、航空图到地图、白天到黑夜、线稿图到实物图的转换。Pix2Pix是将cGAN应用于有监督的图像到图像翻译的经典之作,其包括两个模型:生成器和判别器。传统上,尽管此类任务的目标都是相同的从像素预测像素,但每项都是用单独的专用机器来原创 2024-07-08 19:05:34 · 620 阅读 · 0 评论 -
昇思25天学习打卡营第十九天|GAN图像生成
MNIST手写数字数据集是NIST数据集的子集,共有70000张手写数字图片,包含60000张训练样本和10000张测试样本,数字图片为二进制文件,图片大小为28*28,单通道。图片已经预先进行了尺寸归一化和中心化处理。本案例将使用MNIST手写数字数据集来训练一个生成式对抗网络,使用该网络模拟生成手写数字图片。原创 2024-07-07 23:42:25 · 639 阅读 · 0 评论 -
昇思25天学习打卡营第十八天 | Diffusion扩散模型
如果将Diffusion与其他生成模型(如Normalizing Flows、GAN或VAE)进行比较,它并没有那么复杂,它们都将噪声从一些简单分布转换为数据样本,Diffusion也是从纯噪声开始通过一个神经网络学习逐步去噪,最终得到一个实际图像。Diffusion对于图像的处理包括以下两个过程:我们选择的固定(或预定义)正向扩散过程qqq:它逐渐将高斯噪声添加到图像中,直到最终得到纯噪声一个学习的反向去噪的扩散过程pθp_\thetapθ。原创 2024-07-07 07:23:20 · 808 阅读 · 0 评论 -
昇思25天学习打卡营第十七天|DCGAN生成漫画头像
这部分原理介绍参考。原创 2024-07-05 15:58:33 · 826 阅读 · 0 评论 -
昇思25天学习打卡营第十六天|CycleGAN图像风格迁移互换
CycleGAN(Cycle Generative Adversarial Network) 即循环对抗生成网络,来自论文。该模型实现了一种在没有配对示例的情况下学习将图像从源域 X 转换到目标域 Y 的方法。该模型一个重要应用领域是域迁移(Domain Adaptation),可以通俗地理解为图像风格迁移。原创 2024-07-04 17:31:48 · 1007 阅读 · 0 评论 -
昇思25天学习打卡营第十五天|基于MobileNetv2的垃圾分类
MobileNet网络是由Google团队于2017年提出的专注于移动端、嵌入式或IoT设备的轻量级CNN网络,相比于传统的卷积神经网络,MobileNet网络使用深度可分离卷积(Depthwise Separable Convolution)的思想在准确率小幅度降低的前提下,大大减小了模型参数与运算量。并引入宽度系数 α和分辨率系数 β使模型满足不同应用场景的需求。原创 2024-07-03 12:29:31 · 857 阅读 · 0 评论 -
昇思25天学习打卡营第十四天|K近邻算法实现红酒聚类
KNN算法的实现依赖于样本之间的距离,其中最常用的距离函数就是欧氏距离(欧几里得距离)。RnRn空间中的两点xxx和yyydxy∑i1nxi−yi2dxyi1∑nxi−yi2需要特别注意的是,使用欧氏距离时,应将特征向量的每个分量归一化,以减少因为特征值的尺度范围不同所带来的干扰,否则数值小的特征分量会被数值大的特征分量淹没。其它的距离计算方式还有Mahalanobis距离、Bhattacharyya距离等。原创 2024-07-02 19:14:26 · 600 阅读 · 0 评论 -
昇思25天学习打卡营第十三天|基于MindNLP+MusicGen生成自己的个性化音乐
MusicGen是来自Meta AI的Jade Copet等人提出的基于单个语言模型(LM)的音乐生成模型,能够根据文本描述或音频提示生成高质量的音乐样本,相关研究成果参考论文《MusicGen直接使用谷歌的及其权重作为文本编码器模型,并使用及其权重作为音频压缩模型。MusicGen解码器是一个语言模型架构,针对音乐生成任务从零开始进行训练。MusicGen 模型的新颖之处在于音频代码的预测方式。原创 2024-07-01 18:53:58 · 554 阅读 · 0 评论 -
昇思25天学习打卡营第十二天|Vision Transformer图像分类
近些年,随着基于自注意(Self-Attention)结构的模型的发展,特别是Transformer模型的提出,极大地促进了自然语言处理模型的发展。由于Transformers的计算效率和可扩展性,它已经能够训练具有超过100B参数的空前规模的模型。ViT则是自然语言处理和计算机视觉两个领域的融合结晶。在不依赖卷积操作的情况下,依然可以在图像分类任务上达到很好的效果。原创 2024-07-01 01:19:13 · 741 阅读 · 0 评论 -
昇思25天学习打卡营第十一天|SSD目标检测
SSD,全称Single Shot MultiBox Detector,是Wei Liu在ECCV 2016上提出的一种目标检测算法。使用Nvidia Titan X在VOC 2007测试集上,SSD对于输入尺寸300x300的网络,达到74.3%mAP(mean Average Precision)以及59FPS;对于512x512的网络,达到了76.9%mAP ,超越当时最强的Faster RCNN(73.2%mAP)。具体可参考论文。原创 2024-06-30 08:48:40 · 562 阅读 · 0 评论 -
昇思25天学习打卡营第十天|ShuffleNet图像分类
ShuffleNetV1是旷视科技提出的一种计算高效的CNN模型,和MobileNet, SqueezeNet等一样主要应用在移动端,所以模型的设计目标就是利用有限的计算资源来达到最好的模型精度。ShuffleNetV1的设计核心是引入了两种操作:Pointwise Group Convolution和Channel Shuffle,这在保持精度的同时大大降低了模型的计算量。因此,ShuffleNetV1和MobileNet类似,都是通过设计更高效的网络结构来实现模型的压缩和加速。原创 2024-06-29 08:45:30 · 1488 阅读 · 0 评论 -
昇思25天学习打卡营第九天|ResNet50图像分类
ResNet50网络是2015年由微软实验室的何恺明提出,获得ILSVRC2015图像分类竞赛第一名。在ResNet网络提出之前,传统的卷积神经网络都是将一系列的卷积层和池化层堆叠得到的,但当网络堆叠到一定深度时,就会出现退化问题。下图是在CIFAR-10数据集上使用56层网络与20层网络训练误差和测试误差图,由图中数据可以看出,56层网络比20层网络训练误差和测试误差更大,随着网络的加深,其误差并没有如预想的一样减小。原创 2024-06-27 19:44:48 · 784 阅读 · 0 评论 -
昇思25天学习打卡营第八天|ResNet50迁移学习
在实际应用场景中,由于训练数据集不足,所以很少有人会从头开始训练整个网络。普遍的做法是,在一个非常大的基础数据集上训练得到一个预训练模型,然后使用该模型来初始化网络的权重参数或作为固定特征提取器应用于特定的任务中。本章将使用迁移学习的方法对ImageNet数据集中的狼和狗图像进行分类。迁移学习详细内容见。原创 2024-06-26 15:46:22 · 440 阅读 · 0 评论 -
昇思25天学习打卡营第七天|FCN图像语义分割
FCN主要用于图像分割领域,是一种端到端的分割方法,是深度学习应用在图像语义分割的开山之作。通过进行像素级的预测直接得出与原图大小相等的label map。因FCN丢弃全连接层替换为全卷积层,网络所有层均为卷积层,故称为全卷积网络。全卷积神经网络主要使用以下三种技术:卷积化(Convolutional)使用VGG-16作为FCN的backbone。VGG-16的输入为224*224的RGB图像,输出为1000个预测值。VGG-16只能接受固定大小的输入,丢弃了空间坐标,产生非空间输出。原创 2024-06-25 19:31:43 · 851 阅读 · 0 评论 -
昇思25天学习打卡营第六天|使用静态图加速
AI编译框架分为两种运行模式,分别是动态图模式以及静态图模式。MindSpore默认情况下是以动态图模式运行,但也支持手工切换为静态图模式。原创 2024-06-24 19:05:54 · 576 阅读 · 0 评论 -
昇思25天学习打卡营第五天|函数式自动微分
神经网络的训练主要使用反向传播算法,模型预测值(logits)与正确标签(label)送入损失函数(loss function)获得loss,然后进行反向传播计算,求得梯度(gradients),最终更新至模型参数(parameters)。自动微分能够计算可导函数在某点处的导数值,是反向传播算法的一般化。自动微分主要解决的问题是将一个复杂的数学运算分解为一系列简单的基本运算,该功能对用户屏蔽了大量的求导细节和过程,大大降低了框架的使用门槛。原创 2024-06-23 23:01:28 · 570 阅读 · 0 评论 -
昇思25天学习打卡营第四天|网络构建
当我们定义神经网络时,可以继承nn.Cell类,在__init__方法中进行子Cell的实例化和状态管理,在construct方法中实现Tensor操作。construct意为神经网络(计算图)构建,相关内容详见使用静态图加速。nn.ReLU(),nn.ReLU(),构建完成后,实例化Network对象,并查看其结构。我们构造一个输入数据,直接调用模型,可以获得一个十维的Tensor输出,其包含每个类别的原始预测值。方法不可直接调用。logits。原创 2024-06-23 08:44:48 · 276 阅读 · 0 评论 -
昇思25天学习打卡营第二天|数据集 Dataset
上节说到mindspore对常用数据集提供了方便的预加载方法。模块提供了一些常用的公开数据集和标准格式数据集的加载API。对于MindSpore暂不支持直接加载的数据集,可以构造自定义数据加载类或自定义数据集生成函数的方式来生成数据集,然后通过接口实现自定义方式的数据集加载。支持通过可随机访问数据集对象、可迭代数据集对象和生成器(generator)构造自定义数据集,下面分别对其进行介绍。原创 2024-06-20 19:30:50 · 343 阅读 · 0 评论 -
昇思25天学习打卡营第一天|快速入门
本文主要讲解使用mindspore搭建深度学习网络的流程。会发现mindspore提供了很多方便易用的api和规整的流程。原创 2024-06-19 19:39:21 · 274 阅读 · 0 评论