自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(25)
  • 收藏
  • 关注

原创 昇思25天学习打卡营第25天|基于 MindSpore 实现 BERT 对话情绪识别

通过BERT模型实现对话情绪识别,不仅能够有效识别用户情感,还能在实际应用中提升用户体验及服务质量。这一技术在智能客服和社交聊天场景中的应用价值显著。

2024-07-26 23:43:06 354

原创 昇思25天学习打卡营第24天|RNN实现情感分类

设计预测函数,实现输入评价的情感分类。分词处理输入句子。查找词表获取索引ID。转换为Tensor,输入模型进行预测。输出预测结果。通过以上步骤,RNN模型实现了准确的情感分类,展示了自然语言处理中的应用潜力。

2024-07-26 23:31:52 419

原创 昇思25天学习打卡营第23天|LSTM+CRF序列标注

序列标注是为输入序列中的每个Token分配标签的过程,广泛应用于信息抽取任务。这些任务包括分词、词性标注和命名实体识别(NER)。例如,在NER中,输入序列可能是“清华大学在北京”,输出序列为标签,其中“清华大学”与“北京”都是地名。

2024-07-25 23:36:45 1028

原创 昇思25天学习打卡营第22天|Pix2Pix实现图像转换

Pix2Pix是一种基于条件生成对抗网络(cGAN)的深度学习模型,旨在实现不同图像风格之间的转换,如从语义标签到真实图像、灰度图到彩色图、航拍图到地图等。这一模型由Phillip Isola等人在2017年提出,广泛应用于图像到图像的翻译任务,具有生成器和判别器两个主要组成部分。

2024-07-25 23:30:19 901

原创 昇思25天学习打卡营第21天|GAN图像生成

MNIST手写数字数据集是一个广泛使用的基准数据集,包含70,000张手写数字图像,其中60,000张用于训练,10,000张用于测试。每张图像为28x28像素的单通道灰度图像,经过归一化和中心化处理,方便模型训练。MNIST是进行图像生成和分类任务的理想选择。

2024-07-24 23:47:06 1167

原创 昇思25天学习打卡营第20天|Diffusion扩散模型

扩散模型是一种生成模型,通过逐步去噪的过程将纯噪声转变为实际图像。与其他生成模型(如GAN和VAE)相比,其过程相对直接。前向扩散:这个阶段逐渐向图像添加高斯噪声,直到最终得到纯噪声。这一过程是固定的,定义为一个已知的扩散过程。反向去噪:这一阶段使用训练好的神经网络,从纯噪声开始逐步恢复出实际图像。网络通过学习如何去除噪声来实现图像生成。

2024-07-24 23:42:01 383

原创 昇思25天学习打卡营第19天|DCGAN生成漫画头像

本实验成功实现了使用DCGAN生成动漫头像的任务,涵盖了数据处理、模型构建、训练和推理的全过程。通过对动漫头像数据集的分析,验证了DCGAN在图像生成任务中的有效性,为后续研究提供了基础和经验。实验展示了深度学习在图像生成中的应用潜力,并强调了数据处理与模型优化的重要性。

2024-07-23 22:58:11 437

原创 昇思25天学习打卡营第18天|CycleGAN图像风格迁移互换

本实验详细介绍了如何利用MobileNetv2实现垃圾分类,涵盖了模型构建、训练、测试和推理的全过程。通过对Wine数据集的深入分析与处理,验证了KNN算法的有效性,为垃圾分类领域的后续研究提供了坚实基础和丰富经验。此外,实验强调了数据预处理和模型优化的重要性,并展示了如何在实际项目中应用这些技术。

2024-07-23 22:52:16 544

原创 昇思25天学习打卡营第17天|基于MobileNetv2的垃圾分类

本实验详细介绍了如何利用MobileNetv2实现垃圾分类,包括模型构建、训练、测试和推理的全过程。通过对Wine数据集的深入分析与处理,验证了KNN算法的有效性,为垃圾分类领域的后续研究提供了坚实基础和丰富经验。

2024-07-22 21:45:04 907

原创 昇思25天学习打卡营第16天|基于Mindspore的红酒分类实验

KNN算法的实现依赖于样本之间的距离计算。dxy∑i1nxi−yi2dxyi1∑n​xi​−yi​2​在使用欧氏距离时,特征向量的归一化是必要的,以避免特征尺度不同导致的影响。

2024-07-22 21:35:12 1078

原创 昇思25天学习打卡营第15天|基于MindNLP+MusicGen生成自己的个性化音乐

本节课程详细介绍了如何使用MindNLP与MusicGen生成个性化音乐,涵盖了模型结构、生成方式、参数配置及其创新之处。通过这些步骤,用户不仅可以生成满足需求的高质量音频内容,还能深入理解模型的工作原理和应用潜力。这为未来在音乐生成领域的探索提供了坚实基础。

2024-07-21 23:13:10 237

原创 昇思25天学习打卡营第14天|Vision Transformer图像分类

本案例详细介绍了ViT模型在ImageNet数据集上的训练、验证和推理过程,重点讲解了模型的核心结构和关键概念,如Multi-Head Attention、Transformer Encoder和位置编码等。通过学习此案例,用户将掌握ViT的基本原理以及其在图像分类任务中的应用潜力,为深入研究计算机视觉领域提供了坚实基础。!

2024-07-21 11:14:57 708

原创 昇思25天学习打卡营第13天|SSD目标检测

SSD(Single Shot MultiBox Detector)是一种高性能的目标检测算法,由Wei Liu在2016年提出。该算法在处理不同输入尺寸时表现卓越,尤其在VOC 2007测试集上,300x300的网络达到了74.3%的平均精度(mAP)和59帧每秒(FPS),而512x512的网络达到了76.9%的mAP,超越了当时的Faster R-CNN(73.2%mAP)。SSD的设计理念是通过单阶段处理实现快速而准确的目标检测。

2024-07-21 01:30:25 265

原创 昇思25天学习打卡营第12天|ShuffleNet图像分类

ShuffleNet作为一种高效的卷积神经网络,通过创新的设计和优化,成功实现了在移动设备上进行实时图像分类的目标,为类似应用提供了有力的支持。

2024-07-21 01:22:13 239

原创 昇思25天学习打卡营第11天|ResNet50图像分类

ResNet50 是一种深度卷积神经网络(CNN),由何恺明等人在 2015 年提出。它通过引入残差结构,成功解决了深层网络的退化问题。残差结构允许更深的网络层数,使训练更稳定。

2024-07-19 23:56:46 578

原创 昇思25天学习打卡营第10天|ResNet50迁移学习

批量大小: 训练图像空间大小: 训练周期数lr = 0.001: 学习率: 动量: 并行线程个数。

2024-07-19 23:47:38 255

原创 昇思25天学习打卡营第9天|FCN图像语义分割

FCN是首个端到端的分割方法,通过像素级的预测直接得到与原图大小相等的标签图。FCN丢弃全连接层,全部使用卷积层。计算模型性能的评估指标,如Pixel Accuracy (PA)、Mean Pixel Accuracy (MPA)、Mean Intersection over Union (MIoU)、Frequency Weighted Intersection over Union (FWIoU)。FCN通过全卷积层实现端到端分割,具有以下优点:1. 接受任意大小输入图像。

2024-07-18 22:56:58 403

原创 昇思25天学习打卡营第8天|使用静态图加速

当使用MindSpore进行深度学习任务时,可以选择使用动态图模式(PyNative模式)或静态图模式(Graph模式)。

2024-07-18 11:59:23 236

原创 昇思25天学习打卡营第7天|保存与加载

接口将模型保存为MindIR,这同时保存了模型的权重和结构信息。通过保存和加载模型,我们可以方便地复用已经训练好的模型,进行模型微调、模型推理和部署等任务,从而提高模型的效率和应用的灵活性。接口,并传入要保存的网络和保存路径。要加载模型权重,我们需要创建相同模型结构的实例,并使用。在这一节课程的学习中,我学习了如何保存和加载模型,以便在训练之后进行模型微调、模型推理和部署等任务。在加载过程中,我们可以获取未被成功加载的参数列表,以确保加载的准确性。首先,我学会了如何保存和加载模型权重。仅支持图模式的推理。

2024-07-17 23:26:43 167

原创 昇思25天学习打卡营第6天|模型训练

然后,我们从网络构建的链接中加载代码,定义一个神经网络模型。超参数(Hyperparameters)是可以调整的参数,用于控制模型训练优化的过程。常见的超参数包括训练轮次(epoch)、批次大小(batch size)和学习率(learning rate)等。它们的取值会影响模型的训练和收敛速度。

2024-07-17 23:20:33 320

原创 昇思25天学习打卡营第5天|函数式自动微分

函数式自动微分是神经网络训练中使用的一种技术,它利用反向传播算法来计算模型参数对损失函数的梯度,从而更新参数以优化模型。自动微分的主要目的是将复杂的数学运算分解为一系列简单的基本运算,并自动计算这些基本运算的导数,以减少用户的求导工作和框架的使用门槛。MindSpore使用函数式自动微分的设计理念,并提供了一些接口来实现自动微分。总结而言,函数式自动微分是一种用于计算模型参数对损失函数的梯度的技术,MindSpore提供了相应的接口和功能来支持函数式自动微分,使用户能够更轻松地进行模型训练和优化。

2024-07-15 22:45:57 277

原创 昇思25天学习打卡营第4天|网络构建

此外,通过本节课程的学习,我了解了模型参数的概念,神经网络内部的神经网络层具有权重和偏置参数,在训练过程中会进行优化。模型推理:通过传入输入数据并调用模型的方法,可以获得输出结果,其中每个类别的原始预测值被表示为一个包含十个元素的Tensor。:将神经网络最后一个全连接层的输出(logits)缩放为[0, 1]之间的预测概率,类是构建所有网络的基类,也是网络的基本单元。:非线性激活函数层,引入非线性特征,帮助神经网络学习复杂特征。构建模型:实例化模型类,并查看模型的结构。层:通过将模型的输出结果传入。

2024-07-15 22:29:35 147

原创 昇思25天学习打卡营第3天|数据变换 Transforms

通过在数据处理Pipeline中使用这些Transforms,我们可以对原始数据进行预处理和增强,使其更适合用于神经网络的训练。这些Transforms可以通过`map`方法应用于指定的数据列,用于数据的转换和操作。MindSpore提供了一系列数据变换(Transforms),用于数据预处理和增强。`HWC2CHW`:用于转换图像的格式。`Rescale`:调整图像像素值大小的变换。`PythonTokenizer`:用于对文本进行分词处理的变换。`Normalize`:对图像进行归一化的变换。

2024-07-14 20:56:59 142

原创 昇思25天学习打卡营第2天|数据集 Dataset

MindSpore提供了内置的文本、图像、音频等数据集加载接口,并支持自定义数据集加载接口。此外,MindSpore还提供了大量的预加载数据集,可以使用API一键下载和使用。操作,它可以针对数据集的特定列(column)添加数据变换(Transforms),对每个元素应用变换,并返回包含变换后元素的新数据集。对于MindSpore暂不支持直接加载的数据集,可以通过构造自定义数据加载类或自定义数据集生成函数来生成数据集,然后使用。支持可随机访问数据集对象、可迭代数据集对象和生成器构造的自定义数据集。

2024-07-14 20:42:28 266

原创 昇思25天学习打卡营第1天|张量 Tensor

张量(Tensor)是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在n维空间内,有 n个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。r称为该张量的秩或阶(与矩阵的秩和阶均无关系)。张量的创建方式有多种,构造张量时,支持传入`Tensor`、`float`、`int`、`bool`、`tuple`、`list`和`numpy.ndarray`类型。1.根据数据直接生成。

2024-06-28 15:51:58 146

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除