昇思学习打卡营
文章平均质量分 85
ptyp
Water drops every day.
展开
-
昇思25天学习打卡营第25天|基于 MindSpore 实现 BERT 对话情绪识别
本章使用bert完成了智能对话场景下的情感识别,情感包括正面、负面、中性,可以帮助改善产品体验、或提升客服质量等。直接加载bert的预训练模型,给出分类数,再定义优化器、评价指标,构建训练器即可。可以直接使用bert-chinese的分词器。原创 2024-07-29 11:24:27 · 517 阅读 · 0 评论 -
昇思25天学习打卡营第24天|基于MindSpore的红酒分类实验
本章使用KNN完成红酒分类任务,影响knn效果的主要是k值选择,距离算法与分类决策规则(多数投票或带权重)。最终得到十三个属性和红酒分类效果有关,即可有效完成品类预测。但由于KNN是非参数化的机器学习算法,没有显式的模型参数,因此没办法直接通过KNN确认每一个特征与因变量的具体关系或相关性。原创 2024-07-26 15:12:14 · 1017 阅读 · 0 评论 -
昇思25天学习打卡营第23天|Diffusion扩散模型
return resreturn resreturn resreturn valreturn d1# 定义上下采样操作的别名本章基于denoising diffusion probabilistic model (DDPM)完成了构建模型的搭建。其中正向过程用于加噪,逆向过程用于降噪,他们都基于高斯分布。因此神经网络就是学习条件概率分布的均值和方差。这里使用Unet构建模型,它在编解码器中加入了残差连接,改善了梯度流。构建块包括位置嵌入、ConvNeXT、Attention和组归一化。原创 2024-07-25 21:03:37 · 881 阅读 · 0 评论 -
昇思25天学习打卡营第22天|CycleGAN图像风格迁移互换
本章依然实现了一个基于GAN的模型,使用CycleGAN完成了风格迁移任务。CycleGAN使用镜像的结构,利用循环一致性损失函数来计算原图片和生成的伪图之间的损失。原创 2024-07-25 10:41:19 · 1011 阅读 · 0 评论 -
昇思25天学习打卡营第21天|Pix2Pix实现图像转换
本章使用Pix2Pix完成了图像翻译任务。它基于cGAN,与传统GAN的不同是增加了条件信息。而在Pix2Pix中,指导信息为图片。而生成器和判别器分别采用U-Net和patchGan。原创 2024-07-23 20:24:19 · 1065 阅读 · 0 评论 -
昇思25天学习打卡营第20天|DCGAN生成动漫头像
本章使用DCGAN模型完成了漫画图像的生成,其中DCGAN与传统GAN的区别是反卷积层和卷积层在判别器上的使用。原创 2024-07-22 14:23:11 · 420 阅读 · 0 评论 -
昇思25天学习打卡营第19天|GAN图像生成
使用二进制交叉熵损失函数BCELoss,使用Adam优化器lr = 0.0002 # 学习率# 损失函数# 优化器本章使用GAN完成了手写字体生成任务。原创 2024-07-19 10:43:44 · 579 阅读 · 0 评论 -
昇思25天学习打卡营第18天|RNN实现情感分类
本章基于glove,使用LSTM完成情感分类任务。原创 2024-07-18 15:27:12 · 957 阅读 · 0 评论 -
昇思25天学习打卡营第17天|LSTM+CRF序列标注
本章使用LSTM和CRF完成了序列标注任务。原创 2024-07-17 15:22:07 · 1106 阅读 · 0 评论 -
昇思25天学习打卡营第16天|Vision Transformer图像分类
本章使用ImageNet的数据集上完成了ViT模型的构建和推理,学习了ViT网络的构成。原创 2024-07-16 17:16:16 · 977 阅读 · 0 评论 -
昇思25天学习打卡营第15天|ResNet50迁移学习
本章依然使用了ResNet50网络模型,完成了狼狗图片分类任务。原创 2024-07-15 15:06:44 · 557 阅读 · 0 评论 -
昇思25天学习打卡营第14天|ResNet50图像分类
本节完整的构建了ResNet50的网络,并完成了模型的训练与评估。原创 2024-07-14 15:28:19 · 937 阅读 · 0 评论 -
昇思25天学习打卡营第13天|基于MobileNetv2的垃圾分类
本章完整地实现了MobileNetv2网络,并完成了模型的训练、保存、推理、导出。原创 2024-07-10 21:16:46 · 792 阅读 · 0 评论 -
昇思25天学习打卡营第12天|基于MindSpore的GPT2文本摘要
本章介绍了使用GPT2进行文本总结任务的基本流程,包括数据导入、数据预处理、模型训练、和模型推理。原创 2024-07-09 15:17:06 · 541 阅读 · 0 评论 -
昇思25天学习打卡营第11天|文本解码原理-以MindNLP为例
本篇介绍了在自回归语言模型下的几类文本生成算法,包括最简单的贪心法、有多种变体的sample、以及beam search束搜索。原创 2024-07-08 20:47:13 · 640 阅读 · 0 评论 -
昇思25天学习打卡营第10天|使用静态图加速
本章介绍了静态图加速的相关操作。原创 2024-07-05 10:54:40 · 381 阅读 · 0 评论 -
昇思25天学习打卡营第9天|保存与加载
本节介绍了两个场景下保存和加载模型,分别是对模型参数的,和对中间结果的。对于模型参数,后续创建一样的模型,再填充参数。对于IR,保存的是中间结果。因此存放时需先输入,再保存。后续可以将模型直接用于推理。原创 2024-07-04 10:13:40 · 361 阅读 · 0 评论 -
昇思25天学习打卡营第8天|模型训练
定义一个6层的神经网络,包括1个展平层,三个全连接层, 两个relu激活层。nn.ReLU(),nn.ReLU(),在模型训练中可以自己设置的控制模型训练中的参数。模型参数是在训练过程中通过优化算法自己学习到的,而超参数是手动或通过一些方式在训练前设定的,在训练过程中保持不变。深度学习中大多拆用批量随机梯度下降算法进行优化。wt1wt−η1n∑x∈B∇lxwtwt1wt−ηn1x∈B∑∇lxwt其中,nnn。原创 2024-07-03 15:56:08 · 822 阅读 · 0 评论 -
昇思25天学习打卡营第7天|网络构建
继承nn.Cell类nn.ReLU(),nn.ReLU(),# 构建神经网络# 实例化Network这个网络的结构是Flatten层:将输入的二维图像(28x28)展开成一维向量(784)。这一层是必要的,因为全连接层(Dense层)只能接受一维的输入。Dense-ReLU 序列:第一层 Dense(28*28, 512),将长度784的输入映射到512。正态分布初始化的权重和零初始化的偏置一层 ReLU激活函数,添加非线性,使网络能够学习到复杂的模式。原创 2024-07-02 11:14:31 · 950 阅读 · 0 评论 -
昇思25天学习打卡营第6天|函数式自动微分
本章使用了两种方式实现了自动微分,也就是梯度计算。一种是手动构建模型,一种使用nn.Cell搭建的神经网络。此外,本节也复习了一些深度学习的基础知识。原创 2024-07-01 15:31:08 · 663 阅读 · 0 评论 -
昇思25天学习打卡营第5天|数据变换Transforms
本节学习了图片和文字表的一些转换的基本操作。原创 2024-06-28 11:52:34 · 1093 阅读 · 0 评论 -
昇思25天学习打卡营第4天|数据集Dataset
对于没有预加载和不能使用api加载的数据集,可构造自定义数据加载类或自定义数据集生成函数的方式来生成数据集。再通过GeneratorDataset接口实现自定义方式的数据集加载。这个接口支持通过以下三种方式构造自定义数据集。这节学了一些dataset的加载、操作、以及自定义数据集。原创 2024-06-27 21:51:19 · 451 阅读 · 0 评论 -
昇思25天学习打卡营第3天|张量Tensor
今天学习了张量的基本概念,如何创建张量、张量属性、张量计算以及稀疏张量的创建。原创 2024-06-26 23:08:41 · 1012 阅读 · 0 评论 -
昇思25天学习打卡营第2天|快速入门
今天学习了搭建一个简单深度学习网络的基本步骤,由环境搭建、数据集处理、模型搭建、模型训练到模型加载。串通了整个模型在MindSpore的运作逻辑。原创 2024-06-25 18:52:56 · 409 阅读 · 0 评论 -
昇思25天学习打卡营第1天|基本介绍
MindSpore全场景深度学习框架原创 2024-06-24 19:34:14 · 387 阅读 · 0 评论