Python
文章平均质量分 83
Ice bear433
这个作者很懒,什么都没留下…
展开
-
昇思25天学习打卡营第24天 | DCGAN生成漫画头像
本文介绍了如何使用深度卷积生成对抗网络(DCGAN)来生成动漫头像。DCGAN是生成对抗网络(GAN)的扩展版本,主要通过卷积层和转置卷积层在判别器和生成器中进行处理。原创 2024-07-19 01:09:31 · 116 阅读 · 0 评论 -
昇思25天学习打卡营第23天 | CycleGAN图像风格迁移互换
CycleGAN是一种强大的图像风格迁移工具,通过其独特的无监督学习方法,解决了传统方法中的很多问题,为图像处理和生成开辟了新的路径。通过本案例的学习,可以深入理解CycleGAN的工作原理和实现细节,同时也能体会到深度学习在计算机视觉领域的巨大潜力和广阔前景。原创 2024-07-19 00:25:07 · 323 阅读 · 0 评论 -
昇思25天学习打卡营第22天 | 基于MobileNetv2的垃圾分类函数式自动微分
本文档详细介绍了使用MobileNetV2模型进行垃圾分类的全过程,包括数据准备、模型搭建、模型训练、评估和推理等步骤。MobileNetV2是一种轻量级卷积神经网络,专为移动端和嵌入式设备设计,具有高效、低耗的特点。通过将该模型应用于垃圾分类任务,我们可以自动识别和分类不同类型的垃圾,提高垃圾处理的效率。原创 2024-07-16 00:06:12 · 553 阅读 · 0 评论 -
昇思25天学习打卡营第21天 | 基于MindSpore的红酒分类实验
本次实验不仅让我掌握了KNN算法的实现过程,还了解了MindSpore框架在机器学习任务中的应用。通过实验操作,进一步巩固了机器学习理论知识,提升了编程实战能力。同时,也深刻认识到在处理实际问题时,数据预处理和特征工程的重要性。原创 2024-07-15 23:46:07 · 837 阅读 · 0 评论 -
昇思25天学习打卡营第20天 | 基于MindNLP+MusicGen生成自己的个性化音乐
本实验展示了如何使用MindSpore和MusicGen模型生成个性化音乐。MusicGen基于Transformer结构,通过文本编码、音频token预测和音频解码三个阶段实现音乐生成。实验涵盖了环境配置、模型下载、无提示生成、文本提示生成和音频提示生成等步骤,通过不同的生成模式展示了MusicGen的多样性和灵活性。通过实验,我们能够体验到高效的音乐生成过程,并掌握调整生成参数的方法,以生成符合需求的音乐作品。原创 2024-07-13 23:34:08 · 346 阅读 · 0 评论 -
昇思25天学习打卡营第19天 | 基于MindSpore通过GPT实现情感分类
通过本实验,您将掌握如何基于MindSpore和GPT模型进行中文情感分类。这个过程包括数据预处理、模型构建、训练和评估,以及对新样本的推理。通过实践这些步骤,您可以应用类似的方法进行其他自然语言处理任务。原创 2024-07-12 16:59:34 · 466 阅读 · 0 评论 -
昇思25天学习打卡营第18天 | 基于MindSpore的GPT2文本摘要
本文介绍了如何使用MindSpore框架和MindNLP工具包实现基于GPT-2的文本摘要任务。通过加载和处理NLPCC2017数据集,我们使用BertTokenizer进行中文文本的分词和处理,并构建了一个GPT-2模型用于生成摘要。在模型训练中,我们采用动态学习率调度策略,并记录了模型训练过程。最后,展示了模型的推理过程,生成文本摘要并将其解码为中文文本。本文详细介绍了每一步的实现代码,并附有注释以帮助理解。原创 2024-07-12 15:33:18 · 305 阅读 · 0 评论 -
昇思25天学习打卡营第17天 | 基于 MindSpore 实现 BERT 对话情绪识别
通过 BertForSequenceClassification 构建用于情感分类的 BERT 模型,加载预训练权重,设置情感三分类的超参数自动构建模型。后面对模型采用自动混合精度操作,提高训练的速度,然后实例化优化器,紧接着实例化评价指标,设置模型训练的权重保存策略,最后就是构建训练器,模型开始训练。原创 2024-07-09 18:30:53 · 1621 阅读 · 0 评论 -
昇思25天学习打卡营第16天 | 文本解码原理-以MindNLP为例
通过本文的介绍,我们了解了文本解码的基本原理,并结合MindNLP框架,详细讲解了如何实现一个简单的贪心解码器。希望这篇文章能帮助大家更好地理解文本生成任务中的解码过程。如果有任何问题或建议,欢迎在评论区留言讨论。原创 2024-07-09 00:11:49 · 832 阅读 · 0 评论 -
昇思25天学习打卡营第15天 | Vision Transformer图像分类
通过学习Vision Transformer(ViT),我认识到该模型如何将Transformer架构应用于图像分类领域,并实现了在无卷积操作的情况下依然能取得优异的性能。ViT将输入图像划分为固定大小的patch,并将其视为序列输入到Transformer中。通过多头自注意力机制,模型能够有效地捕捉图像中的全局特征。在实践中,我了解了如何使用MindSpore框架进行数据处理、模型训练和推理,包括数据增强、定义损失函数、优化器、以及模型的评估与可视化。原创 2024-07-08 11:34:43 · 745 阅读 · 0 评论 -
昇思25天学习打卡营第14天 | SSD目标检测
在学习SSD目标检测算法的过程中,我了解到SSD是一种单阶段目标检测算法,通过VGG16作为基础网络进行特征提取,利用多尺度特征图进行检测,具有检测速度快和精度高的特点。SSD采用预设anchor策略,通过3×3卷积直接输出检测结果,避免了YOLO的全连接层计算。通过学习数据处理、数据增强以及SSD网络结构的构建,我加深了对目标检测算法的理解,并掌握了MindSpore框架下数据集创建和模型训练的基本流程。这次学习提升了我在计算机视觉领域的实践技能。原创 2024-07-08 11:03:57 · 920 阅读 · 0 评论 -
昇思25天学习打卡营第13天 | ShuffleNet图像分类
通过本次学习,我不仅掌握了ShuffleNetV1的网络结构和实现方法,还深入理解了分组卷积和通道重排在提高模型效率中的作用。未来,我希望能够进一步探索ShuffleNetV2以及其他高效模型的设计与应用,并尝试将其应用于更多复杂的数据集和任务中。同时,我还计划研究模型压缩和加速的其他技术,如模型剪枝和量化,以进一步提升模型的应用性能。原创 2024-07-08 01:17:13 · 1056 阅读 · 0 评论 -
昇思25天学习打卡营第12天 | ResNet50图像分类
通过本次学习,我不仅掌握了ResNet50网络的构建和训练方法,还深刻理解了残差网络在深度学习中的重要性。未来的工作中,我希望能进一步探索更深层次的网络结构,并应用于更复杂的数据集和任务中。原创 2024-07-04 23:39:47 · 1009 阅读 · 0 评论 -
昇思25天学习打卡营第11天 | ResNet50迁移学习
在实际应用场景中,由于训练数据集不足,所以很少有人会从头开始训练整个网络。普遍的做法是,在一个非常大的基础数据集上训练得到一个预训练模型,然后使用该模型来初始化网络的权重参数或作为固定特征提取器应用于特定的任务中。本章将使用迁移学习的方法对ImageNet数据集中的狼和狗图像进行分类。原创 2024-07-03 23:09:59 · 533 阅读 · 0 评论 -
昇思25天学习打卡营第10天 |FCN图像语义分割
FCN的核心贡献在于提出使用全卷积层,通过学习让图片实现端到端分割。与传统使用CNN进行图像分割的方法相比,FCN有两大明显的优点:一是可以接受任意大小的输入图像,无需要求所有的训练图像和测试图像具有固定的尺寸。二是更加高效,避免了由于使用像素块而带来的重复存储和计算卷积的问题。原创 2024-07-03 21:15:00 · 962 阅读 · 0 评论 -
昇思25天学习打卡营第9天 | 使用静态图加速
使用MindSpore的静态图模式进行加速,意味着开发者可以获得高性能的模型执行能力,同时框架本身也在不断进化以提供更好的易用性和灵活性,适合那些追求极致性能和大规模模型训练的场景。原创 2024-07-02 21:10:39 · 825 阅读 · 0 评论 -
昇思25天学习打卡营第8天 | 保存与加载
在现代深度学习项目中,模型的训练、保存、加载和部署是至关重要的环节。本章介绍了如何使用MindSpore框架进行模型的保存与加载,包括模型权重的保存与加载以及使用MindIR进行模型的中间表示存储和加载。通过详细的代码示例和步骤解析,我们学习了如何利用MindSpore的save_checkpoint和load_checkpoint接口保存和加载模型权重,从而确保训练成果的持久化和后续调优的灵活性。同时,我们还学习了如何使用export接口将模型保存为MindIR格式,并通过load接口加载MindIR模型原创 2024-07-01 22:57:33 · 340 阅读 · 0 评论 -
昇思25天学习打卡营第7天 |模型训练
通过本次学习和实践,我不仅掌握了MindSpore的基本使用方法,还深入理解了深度学习模型的训练和评估过程。反向传播算法、数据预处理、神经网络构建、超参数调优等方面的知识,使我在实际项目中能够更加得心应手地应用这些技术。同时,这些实践经验也为我后续深入学习和研究深度学习奠定了坚实的基础。原创 2024-06-30 20:52:41 · 581 阅读 · 0 评论 -
昇思25天学习打卡营第6天 | 函数式自动微分
本次学习让我对反向传播算法和MindSpore的自动微分功能有了全面而深入的理解。通过实践操作,我不仅掌握了基础理论,还学会了如何在实际中应用这些工具。自动微分大大简化了梯度计算的过程,使我们能够专注于模型的设计和优化。这些知识和技能为我今后的深度学习研究和应用打下了坚实的基础。原创 2024-06-30 16:36:36 · 691 阅读 · 0 评论 -
昇思25天学习打卡营第5天 | 网络构建
通过本次学习,我掌握了如何使用MindSpore构建和训练神经网络模型。了解了MindSpore中Cell类的基本原理,以及如何通过继承和重载方法来实现自定义的神经网络层。通过实例化和组合不同的子Cell,构建了一个用于MNIST数据集分类的多层感知器模型,并通过Flatten、Dense、ReLU等层进行操作。熟悉了SequentialCell的使用,简化了模型的构建过程,同时通过Softmax层实现了分类概率的计算。整体学习过程提高了我对MindSpore深度学习框架的理解和应用能力。原创 2024-06-28 21:59:07 · 604 阅读 · 0 评论 -
昇思25天学习打卡营第4天 | 数据变换Transforms
通常情况下,直接加载的原始数据并不能直接送入神经网络进行训练,此时我们需要对其进行数据预处理。MindSpore提供不同种类的数据变换(Transforms),配合数据处理Pipeline来实现数据预处理。所有的Transforms均可通过map方法传入,实现对指定数据列的处理。原创 2024-06-26 21:07:56 · 894 阅读 · 0 评论 -
昇思25天学习打卡营第3天 | 数据集 Dataset
数据是深度学习的基础,高质量的数据输入将在整个深度神经网络中起到积极作用。MindSpore提供基于Pipeline的数据引擎,通过数据集(Dataset)和数据变换(Transforms)实现高效的数据预处理。其中Dataset是Pipeline的起始,用于加载原始数据。mindspore.dataset提供了内置的文本、图像、音频等数据集加载接口,并提供了自定义数据集加载接口。原创 2024-06-26 11:23:20 · 970 阅读 · 0 评论 -
昇思25天学习打卡营第2天 | 张量Tensor
通过学习MindSpore中的张量和稀疏张量,可以深入了解了如何有效地管理和操作大规模数据,以及如何利用稀疏数据结构来提升计算效率和节省存储空间。原创 2024-06-25 22:14:25 · 948 阅读 · 0 评论 -
昇思25天学习打卡营第1天|快速入门
本章通过MindSpore的API来快速实现一个简单的深度学习模型。若想要深入了解MindSpore的快速使用方法。原创 2024-06-25 20:27:35 · 695 阅读 · 0 评论 -
Python自动化办公(二) —— 查看文件夹中的PDF文件数量
在日常办公中,我们经常需要统计某个文件夹中的PDF文件数量。手动操作不仅费时费力,而且容易出错。幸运的是,使用Python可以轻松实现这个过程。本文将介绍如何使用Python脚本统计一个文件夹中PDF文件的数量并返回结果。原创 2024-06-15 15:36:33 · 446 阅读 · 0 评论 -
Python自动化办公(一) —— 根据PDF文件批量创建Word文档
在现代办公环境中,自动化是提升工作效率和减少重复劳动的重要手段。本文介绍了一种使用Python实现自动化办公的方法,即根据PDF文件批量创建对应的Word空白文档。通过详细的代码示例和解释,读者可以学会如何利用Python脚本遍历文件夹中的PDF文件,并根据每个PDF文件的名称生成对应的Word文档。这不仅简化了繁琐的手动操作,还确保了工作的准确性和高效性。无论你是初学者还是有经验的开发者,这篇文章都将为你提供有用的指导,帮助你在日常办公中应用Python自动化技术。原创 2024-06-15 15:34:22 · 706 阅读 · 0 评论