昇思25天学习打卡
文章平均质量分 79
Mr_Orangechen
这个作者很懒,什么都没留下…
展开
-
昇思25天学习打卡营第9天 |昇思MindSpore K近邻算法实现红酒聚类
本次实验主要运用 MindSpore 在部分 wine 数据集上开展 KNN 实验,旨在深入理解 KNN 算法的原理与应用,并通过实际操作掌握其在数据分类中的具体实现。通过本次实验,对 KNN 算法的原理和实践有了更深入的理解,为进一步应用和优化算法奠定了基础。本实验运用 MindSpore 实现 KNN 算法,对 wine 数据集的三类样本进行分类,验证了算法能依据酒的 13 种属性判别酒的品种。例如,在欧式距离中,它对各维度上的差异同等对待。而在曼哈顿距离中,更侧重于考虑坐标差值的绝对值之和。原创 2024-07-26 17:37:50 · 435 阅读 · 0 评论 -
昇思25天学习打卡营第9天 |昇思MindSpore 基于MindNLP+MusicGen生成自己的个性化音乐
其创新之处在于音频代码的预测方式,采用单个 stage 的 Transformer LM 结合高效的 token 交织模式,取消了多层级的多个模型结构,如分层或上采样,从而能够生成单声道和立体声的高质量音乐样本,并提供更好的生成输出控制。MusicGen 支持贪心(greedy)和采样(sampling)两种生成模式,采样模式的结果通常优于贪心模式,默认启用采样模式,可在调用。控制生成过程的默认参数(如采样、指导比例和生成的令牌数量)可在模型的生成配置中找到并按需更新。方法的参数会取代生成配置中的参数。原创 2024-07-26 15:30:11 · 312 阅读 · 0 评论 -
昇思25天学习打卡营第8天 |昇思MindSpore Vision Transformer(ViT)学习总结
就像把图像切成小块(patch),然后通过复杂但有效的注意力机制去分析它们之间的关系,这简直是天才的想法!多头注意力机制就像是一群聪明的小精灵,从不同角度深入挖掘图像的特征,让模型能够捕捉到更丰富、更全面的信息。它的训练需要大量的计算资源和时间,这就像是一场艰苦的马拉松。总的来说,学习 ViT 就像是开启了一扇通往新世界的大门,让我们看到了深度学习在计算机视觉领域的无限可能!类中的平滑因子和类别数量等参数,对损失的计算和模型的优化方向有着重要的引导作用。在代码实现中,各种参数的设置和函数的设计都非常精妙。原创 2024-07-26 14:21:19 · 143 阅读 · 0 评论 -
昇思25天学习打卡营第9天 |昇思MindSpore ResNet50 图像分类学习笔记
【代码】昇思25天学习打卡营第9天 |昇思MindSpore ResNet50 图像分类学习笔记。原创 2024-07-26 10:15:25 · 279 阅读 · 0 评论 -
昇思25天学习打卡营第8天 |昇思MindSpore SSD 目标检测算法 学习与总结
模型训练设置 epoch 次数为 60,batch_size 为 5,图像尺寸为 300×300,使用 Momentum 优化器,初始学习率为 0.001,使用回调函数监控训练过程,每 10 个 epoch 保存一次模型。目标函数包括预选框与目标类别的置信度误差(confidence loss)和位置误差(location loss),位置损失采用 Smooth L1 Loss,置信度损失采用多类置信度上的 softmax 损失。:对 6 个预测特征图进行卷积操作,得到回归偏移量和类别概率分数。原创 2024-07-25 18:31:21 · 520 阅读 · 0 评论 -
昇思25天学习打卡营第8天 |昇思MindSpore ShuffleNet 图像分类学习笔记
ShuffleNet 是旷视科技提出的一种高效卷积神经网络模型,旨在使用有限的计算资源实现高模型精度。Pointwise Group Convolution(逐点分组卷积):通过对通道进行分组,每组卷积核仅处理输入特征图的一部分通道,从而降低计算量。Channel Shuffle(通道重排):解决 Group Convolution 导致的信息交流不足的问题,通过通道重排增强信息交互。ShuffleNet 的优势:通过分组卷积和通道重排显著减少计算量,提高效率。模型应用。原创 2024-07-25 17:57:52 · 348 阅读 · 0 评论 -
昇思25天学习打卡营第8天 |昇思MindSpore ResNet50迁移学习
在实际应用场景中,由于训练数据集不足,很少有人会从头开始训练整个网络。普遍做法是使用在大型数据集上预训练的模型,然后将其作为初始化权重或固定特征提取器,用于特定任务。本章使用迁移学习方法对ImageNet数据集中狼和狗图像进行分类。迁移学习方法能有效利用预训练模型在新任务上的表现,通过微调模型权重,可以在有限的数据上获得较好的性能。通过对ResNet50模型进行特定任务的微调,实现了对狼和狗图像的分类,提高了模型的泛化能力。原创 2024-07-25 16:40:11 · 309 阅读 · 0 评论 -
昇思25天学习打卡营第7天 |昇思MindSpore 全卷积网络(FCN)图像语义分割 学习与总结
全卷积网络(Fully Convolutional Networks,FCN)是UC Berkeley的Jonathan Long等人在2015年提出的用于图像语义分割的一种框架。FCN是首个端到端进行像素级预测的全卷积网络。FCN主要用于图像分割领域,是一种端到端的分割方法。通过进行像素级的预测直接得出与原图大小相等的label map。因FCN丢弃全连接层替换为全卷积层,网络所有层均为卷积层,故称为全卷积网络。全卷积网络(FCN)通过卷积操作代替全连接操作,实现了任意尺寸输入图像的语义分割。原创 2024-07-25 16:03:00 · 326 阅读 · 0 评论 -
昇思25天学习打卡营第7天 |昇思MindSpore 使用静态图加速 学习与总结
静态图高级编程技巧:可参考相关文档提高编译和执行效率,使程序更稳定。原创 2024-07-10 23:36:12 · 147 阅读 · 0 评论 -
昇思25天学习打卡营第6天 |昇思MindSpore 模型训练的学习与总结
神经网络模型定义了模型的架构。在本实验中,我们定义了一个包含三层全连接层和ReLU激活函数的简单神经网络。nn.ReLU(),nn.ReLU(),超参、损失函数和优化器是模型训练的关键参数。超参:包括训练轮次(epochs)、批次大小(batch size)和学习率(learning rate)。epochs = 3损失函数:使用计算预测值与目标值之间的误差。优化器:使用nn.SGD优化器来更新模型参数。download函数/关键词参数作用例句download。原创 2024-07-08 00:37:06 · 794 阅读 · 0 评论 -
昇思25天学习打卡营第6天 |昇思MindSpore保存与加载的学习与总结
nn.ReLU(),nn.ReLU(),函数/关键词参数作用例句保存模型权重到指定文件加载模型权重文件将参数加载到模型中export导出模型为指定格式load加载MindIR模型文件将MindIR模型转换为可执行的图模式模型。原创 2024-07-08 00:34:08 · 252 阅读 · 0 评论 -
昇思25天学习打卡营第5天 |昇思MindSpore 函数式自动微分学习与总结
通过上述示例,展示了MindSpore中如何使用函数式自动微分接口grad和来计算梯度。这些接口提供了更接近数学语义的自动微分方式,大大简化了深度学习模型的训练过程。自动微分通过将复杂的数学运算分解为一系列简单的基本运算,极大地降低了框架的使用门槛。操作说明示例ops.ones创建全为1的Tensorops.zeros创建全为0的TensorParameter定义参数计算梯度函数停止梯度传播nn.Cell定义神经网络模型计算值和梯度fill:#333;color:#333;color:#333;原创 2024-07-04 23:38:28 · 625 阅读 · 0 评论 -
昇思25天学习打卡营第4天 |昇思MindSpore 网络构建学习与总结
MindSpore 提供了nn.Cell类来构建神经网络模型,这是所有网络的基类。网络模型由不同的子Cell组成,可以通过面向对象编程的方式进行构建和管理。原创 2024-07-03 16:28:07 · 316 阅读 · 0 评论 -
昇思25天学习打卡营第3天 |昇思MindSpore 数据变换 Transforms学习与总结
Transform参数作用示例Compose组合多个数据增强操作Transform参数作用示例Rescale调整图像像素值Normalize对图像进行归一化HWC2CHW转换图像格式Transform参数作用示例文本分词LookupToken转换为IndexTransform参数作用示例Lambda应用任意Lambda函数下面是使用表格展示和两大模块的数据增强操作的信息。信息来源于。原创 2024-07-02 15:52:20 · 569 阅读 · 0 评论 -
昇思25天学习打卡营第2天 |昇思MindSpore 数据集 Dataset学习与总结
库名描述numpy数值计算库,用于处理数组和矩阵操作提供数据加载和预处理功能用于加载 MNIST 数据集用于加载自定义数据集- vision提供数据变换(Transforms)功能可视化库,用于绘制图形和显示数据download下载数据集的库函数/关键字参数作用例句加载 MNIST 数据集加载自定义数据集download下载并解压数据集创建元组迭代器创建字典迭代器shuffle随机打乱数据map应用数据变换batch分批处理数据数据缩放变换实现和__len__原创 2024-07-01 18:19:49 · 641 阅读 · 0 评论 -
昇思25天学习打卡营第1天 |昇思MindSpore 张量 Tensorde学习与总结
库/模块作用示例代码NumPy用于科学计算,提供高性能多维数组和矩阵运算功能,以及大量数学函数MindSpore华为开发的开源深度学习框架,提供网络构建、训练、推理和部署等功能ops模块包含常用操作函数,用于神经网络中的张量计算Tensor基本数据结构,用于表示多维数组或矩阵CSRTensor用于高效存储和操作稀疏矩阵,采用压缩稀疏行格式COOTensor用于稀疏矩阵的存储和操作,采用坐标格式张量(Tensor)是一种特殊的数据结构,与数组和矩阵非常相似。张量的**秩(阶)**表示其维度数量。原创 2024-06-30 11:37:32 · 799 阅读 · 0 评论 -
昇思25天学习打卡营第1天 |昇思MindSpore框架的快速入门
指令/关键词参数作用提供数据集加载和处理功能。path加载MNIST数据集。rescale图像数据归一化,通常用于将像素值缩放到0-1范围。meanstd对图像数据进行标准化处理,减去均值并除以标准差。将图像数据从HWC格式转换为CHW格式。type将数据类型转换为指定类型。nn.Cell所有网络层的基类,用于构建自定义神经网络。nn.Flatten将多维输入展平为二维。*layers顺序容器,按顺序将层传递给输入。nn.Densehas_bias全连接层,具有输入通道数和输出通道数。nn.ReLU。原创 2024-06-30 10:05:30 · 450 阅读 · 0 评论 -
昇思25天学习打卡营第1天 |昇思MindSpore框架的基本介绍
统一API设计:减少了开发者在动态图和静态图之间切换的复杂性,提高了开发效率。高效数据处理:MindSpore Data模块显著提升了大规模数据集的处理效率。全场景支持:适应从端到云的各种硬件环境,提供了真正的全场景AI解决方案。安全增强:MindSpore Armour在AI安全和隐私保护方面具有独特优势,适合企业级应用。在未来的开发工作中,我计划深入探索MindSpore的各个模块,充分利用其优势来构建高效的AI应用。继续学习和实践:通过更多的项目实践,深入理解MindSpore的设计和实现。原创 2024-06-30 00:15:48 · 869 阅读 · 0 评论