昇思打卡
昇思学习打卡
右牙缺角土豆头
这个作者很懒,什么都没留下…
展开
-
《昇思25天学习打卡营第25天|第28天》
从Vision Transformer(ViT)简介开始了解,模型结构,模型特点,实验的环境准备和数据读取,模型解析(Transformer基本原理),Attention模块,Transformer Encoder,ViT模型的输入(整体构建ViT),模型训练与推理(模型训练、模型验证、模型推理)。今天是打卡的第二十八天,实践应用篇中的计算机视觉中Vision Transformer图像分类。原创 2024-07-24 13:39:37 · 271 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第27天》
从对ShuffleNet网络介绍开始学习,模型架构(Pointwise Group Convolution,Channel Shuffle,ShuffleNet模块,构建ShuffleNet网络),模型训练喝评估,模型训练,模型评估,模型预测。今天是学习的第二十七天,今天学习的是应用实践篇中计算机视觉中ShuffleNet图像分类。原创 2024-07-23 10:37:22 · 189 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第26天》
从模型简介开始学起,模型结构,模型特点,环境准备,数据准备与处理,数据采样,数据集创建,模型构建,损失函数,训练过程(先验证匹配,损失函数,数据增强),评估。今天是打卡的第二十六天,今天学的是应用实践篇中计算机视觉中SSD目标检测。原创 2024-07-23 10:02:06 · 102 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第25天》
从数据准备(下载数据集),加载数据集(数据集可视化),训练模型(构建Resnet50网络),固定特征进行训练,训练和评估,可视化模型预测。今天是学习的第二十五天,今天学的是应用实践篇的计算机视觉的ResNet50迁移学习。原创 2024-07-22 11:19:06 · 174 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第24天》
今天从图像分类的简介说起,ResNet网络介绍,数据集准备与加载,构建网络(构建残差网络结结构(Building Block、Bottleneck)、构建ResNt50网络),可视化模型预测。今天是第二十四天,今天学习的是应用实战篇中的计算机视觉中的ResNet50图像分类。原创 2024-07-22 10:52:10 · 77 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第23天》
首先,是对全卷积网络(FCN)的简介,语义分割的简介,模型简介(1、卷积化,2、上采样,3、跳跃结构),网络特点,数据处理(数据预处理,数据加载,训练集可视化),网络构建(网络流程),训练准备,模型训练,模型评估,模型推理。今天是打卡的第二十三天,今天学习的是应用实践篇中的计算机视觉中FCN图像语义分割。原创 2024-07-22 01:08:33 · 150 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第22天》
从情感分类开始学习,数据准备、数据下载模块、加载IMDB数据集、加载预训练词向量、数据集预处理、模型构建、Embedding、RNN(循环神经网络)、Dense、损失函数与优化器、训练逻辑、评估指标和逻辑、模型训练与保存、模型加载与测试、自定义输入测试。今天是学习的第22天,今天学的是应用实践的自然语言处理的RNN实现情感分类。原创 2024-07-19 11:27:12 · 327 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第21天》
从序列标注的概述开始讲起,条件随机场(Conditional Random Field, CRF),Score计算,Viterbi算法,CRF层,BiLSTM+CRF模型。今天是打卡的第二十一天,今天学的是应用实践的自然语言处理的LSTM+CRF序列标注。原创 2024-07-19 10:48:49 · 316 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第20天》
老传统,从Pix2Pix概述学起(基于条件生成对抗网络实现的一种深度学习图像转换模型),基础原理,准备环节(配置环境文件、准备数据、数据展示),创建网络,生成器G结构,定义UNet Skip Connection Block,基于UNet的生成器,基于PatchGAN的判别器,Pix2Pix的生成器和判别器初始化,训练,推理。今天是第二十天,今天学习的是应用实践的生成式的Pix2Pix实现图像转换。原创 2024-07-19 02:39:49 · 375 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第19天》
今天这篇主要对GAN模型简介(是一种生成式机器学习模型),数据集(数据集简介、数据集下载、数据加载、数据集可视化),模型构建(生成器、判别器、损失函数和优化器),模型训练,效果展示、模型推理。今天是打卡的第十九天,应用实践篇的生成式的GAN图像生成。原创 2024-07-19 02:14:54 · 214 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第18天》
今天学的有关于扩散模型的介绍,模型简介(什么是Diffusion Model、扩散模型实现原理),构建Diffusion模型,位置向量,ResNet/ConvNeXT块,Attention模块,组归一化,正向扩散,数据准备与处理(采样、训练过程),推理过程(从模型中采样)。今天是学习的第十八天,今天学习的是实践应用篇的生成式的Diffusion扩散模型。原创 2024-07-18 02:58:35 · 174 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第17天》
今天学习了GAN基础原理,DCGAN原理,数据准备与处理(数据处理),构造网络(生成器、判别器),模型训练(损失函数、优化器、训练模型),结果展示。今天是第十七天,今天学习的是应用实战的生成式的DCGAN生成漫画头像。原创 2024-07-18 02:44:08 · 352 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第16天》
今天学习的是CycleGAN的模型介绍(模型简介、模型结构),数据集(数据集下载、数据集加载、可视化),构建生成器,构建判别器,优化器和损失函数,前向计算,计算梯度和反向传播,模型训练,模型推理。今天是第十六天,今天学习的是应用实践中的生成式的CycleGAN图像风格迁移互换。原创 2024-07-18 02:33:39 · 81 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第9天》
今天是打卡的第九天,今天学习的是使用静态图加速这门课程,从他的背景学起:AI编译框架分为两种运行模式,分别是动态图模式和静态图模式,动态图模式特点:计算图的构建和计算同时发生,缺点:所有节点都需要被保存,导致难以对整个计算图进行优化;静态图模式特点:计算图的构建和计算是分开的。静态图模式的使用场景:MindSpore编译器重点面向Tensor数据的计算以及其微分处理。静态图模式开启方式:基于装饰器的开启方式和基于context的开启方式。静态图的语法约束、JitConfug配置选线、和静态图高级编程技巧。原创 2024-07-15 01:29:07 · 449 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第8天》
今天是打卡的第八天,今天学习怎么保存和加载模型,保存和加载模型权重:1、保存模型:使用save_checkpoint接口,传入网络和指定的保存路径;2、加载模型权重:需要先创建相同模型的实例,然后使用load_checkpoint和load_param_into_net方法加载参数,保存和加载MindIR:1、保存:可使用export接口直接将模型保存为MindIR;2、加载:通过load接口加载,传入nn.GraphCell即可进行推理(仅支持图模式)。原创 2024-07-14 03:27:35 · 257 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第7天》
今天是打卡的第七天,今天学习了函数式微分的概念,然后学习MindSpore中提供的方法,函数与计算图(根据计算图构造计算函数和神经网络),微分函数与梯度计算、Auxiliary data、Stop Gradient、神经网络梯度计算。今天学两课,另一篇是模型训练的四个步骤:构建数据集;定义超参、损失函数及优化器;输入数据集进行训练及优化器。原创 2024-07-12 18:12:37 · 402 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第4天》
今天是打卡的第4天,今天学习的是数据集Dataset、数据集加载、数据集迭代、数据集常用操作(shuffle、map和batch)和自定义数据集中的可随机访问数据集、可迭代数据集和生成器。坚持打卡,对基础知识有一定了解后,向应用实践篇进攻!原创 2024-07-10 00:41:09 · 87 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第15天》
今天是打卡的第十五天,今天学的是应用实践中的热门LLM及其他AI应用的基于MobileNetv2的垃圾分类函数式自动微分篇。主要介绍垃圾分类代码开发的方法,通过对MobileNetv2模型原理介绍,数据处理(数据准备和数据加载)、MobileNetV2模型搭建、MobileNetV2模型的训练与测试、模型推理和导出AIR/GEIR/ONNX模型文件去介绍。原创 2024-07-17 03:40:56 · 220 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第14天》
今天是打卡的第十四天,今天学习的是应用实践中的热门LLM及其他AI应用的K近邻算法实现红酒聚类篇。这一片主要介绍使用MindSpore在部分wine数据集上进行KNN实验,对实验的步骤的介绍:K近邻算法原理介绍(分类问题、回归问题和距离的定义)、实验环境、数据处理(数据准备和数据读取与处理)、模型构建--计算问题和模型预测。原创 2024-07-17 03:31:29 · 162 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第13天》
今天是打卡的第十三天,今天学习的是实用实践中的热门LLM及其他AI应用的基于MindNLP+MusicGen生成自己的个性化音乐。MusicGen的介绍、下载模型,生成音乐(无提示生成、文本提示生成、音频提示生成)和生成配置。原创 2024-07-17 02:54:40 · 118 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第12天》
看来看去还是决定把LIM原理和实践部分看完吧,今天学习的是基于MindSpore通过GPT实现情感分类。今天这一篇全都是代码,没有注解,看了半天看不懂,有点之前上学的时候打开书却认识字不懂内容的感觉了,明天再起来研究看看。原创 2024-07-16 02:31:25 · 89 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第11天》
今天多学一篇,算是第十一天的打卡,今天学的是基于MindSpore的GPT2文本摘要,其中讲的是通过案例来实现数据集加载和处理:1、数据集加载、2、数据预处理,模型构建:1、构建GPT2ForSunm marization模型、2、动态学习率,模型训练和模型推理。原创 2024-07-16 02:10:25 · 71 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第10天》
今天是打卡的第十天,今天开始学应用实践中的LLM原理和实践,今天学的是基于MindSpore实现BERT对话情绪识别。最先了解的是BERT模型的简介(来自变换器的双向编码器表征量(Bidirectional Encoder Representations from Transformers),它是Google于2018年末开发并发布的一种新型语言模型),然后是数据集、数据加载和数据预处理、模型构建、模型验证、模型推理、自定义推理数据集。原创 2024-07-16 01:48:20 · 215 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第6天》
今天是打卡的第6天,今天·学习了网络构建的概念,以及用于Mnist数据分类的神经网络模型:定义模型类,模型层:实例化nn.Flatten层、nn.Dense全连接层、nn.ReLU、nn.SequentiaCell有序的Cell层和nn.Softmax和模型参数。原创 2024-07-12 02:20:16 · 535 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第5天》
今天是第5天打卡,今天学习的是数据交换Transfroms的概念、mindspore.dataset.transorms模块支持的通用Transfroms:Compose、mindspore.dataset.vision模块(图像处理)中的Recale、Normalize和HWC2CHW、mindspore.dataset.text模块(文字数据)中的操作:PythonTokenizer和LooKup、最后还有Lambda Transforms。原创 2024-07-11 02:25:40 · 154 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第3天》
打卡中断好多天了,不能再继续这样颓废,今天第三天,了解了张量Tensor,以及它的三种创建方法、张量的属性、张量的索引、张量的运算以及Tensor和NumPy转换,稀疏张量的概念,以及MindSpore现在已经支持的。原创 2024-07-09 02:21:38 · 193 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第2天》
学习了数据集,网络构建,模型训练、保存模板和加载模板。发现自己的python基础不够扎实,明天重新看一下代码的运行。今天是第2天打卡啦,今天的打卡内容是初学入门篇->初学教程->快速入门。原创 2024-06-29 01:58:23 · 103 阅读 · 0 评论 -
《昇思25天学习打卡营第25天|第1天》
嘻嘻嘻,有幸参加这个活动,第一次接触这块的知识。今天第一次打卡,也是第一次接触昇思MindSpore,学习了基本介绍,总体来说比较陌生,等后面运行一下代码熟悉一下。希望接下来get到新技能。后面掌握后出笔记,大家一起分享,感受昇思MindSpore的魅力!原创 2024-06-28 00:48:11 · 118 阅读 · 0 评论