华为昇思30天学习打卡营
文章平均质量分 62
华为昇思30天学习打卡营
先天无极编程圣体
眼中揽银河,手可摘星辰
展开
-
昇思25天学习打卡营第1天 | 基本介绍
通过这次实现简单神经网络的实践,我更加深入地理解了神经网络的工作原理和训练过程。尽管现代深度学习框架大大简化了神经网络的实现和训练过程,但理解这些基本原理对于深入掌握和应用深度学习技术仍然至关重要。这个练习不仅帮助我巩固了理论知识,还提高了我解决实际问题的能力。未来,我会继续探索更复杂的网络结构和优化算法,不断提升自己的深度学习技能。原创 2024-07-11 06:06:59 · 302 阅读 · 0 评论 -
昇思25天学习打卡营第2天 | 快速入门
通过这次学习与实践,我深刻体会到MindSpore在深度学习模型开发中的强大功能和易用性。从数据处理到模型构建,再到训练与测试,每一步都提供了详细的API支持和文档说明,使得整个流程更加流畅和高效。在未来的学习和研究中,我将继续探索MindSpore的更多高级功能,如分布式训练、自动微分和自定义算子等,进一步提升自己的深度学习能力。同时,也希望能将所学知识应用到实际项目中,为解决实际问题贡献自己的力量。原创 2024-07-18 19:40:46 · 323 阅读 · 0 评论 -
昇思25天学习打卡营第3天 | 张量
张量是现代机器学习框架中的核心数据结构,理解张量的工作方式是深入掌握深度学习和神经网络的基础。原创 2024-07-19 05:39:44 · 406 阅读 · 0 评论 -
昇思25天学习打卡营第4天 | 网络构建
通过这次学习和实践,我掌握了在MindSpore中构建神经网络模型的基本方法和技巧。通过对模型逐层解析和参数管理的深入理解,我不仅提高了对神经网络内部工作原理的认识,也增强了实际操作的能力。这为我今后在深度学习领域的研究和应用打下了坚实的基础。原创 2024-07-19 06:23:10 · 336 阅读 · 0 评论 -
昇思25天学习打卡营第5天 | 数据集
在实际应用中,经常需要将数据打包成批次以优化训练过程。MindSpore的batch操作允许用户指定批大小,这对于在有限的硬件资源下使用梯度下降进行模型优化至关重要。此外,MindSpore支持自定义数据集的创建,无论是通过实现随机访问接口、可迭代接口还是生成器。这为处理非标准或专有数据格式提供了极大的灵活性。原创 2024-07-19 06:55:22 · 227 阅读 · 0 评论 -
昇思25天学习打卡营第6天 | 数据变换
通过深入学习MindSpore的数据变换功能(Transforms),我获得了对如何高效地进行数据预处理的全面了解。数据预处理是深度学习项目中一个不可忽视的步骤,它直接影响到模型的训练效果和最终性能。MindSpore通过其丰富的数据变换库提供了强大的支持,使得数据预处理变得既简便又高效。原创 2024-07-19 07:07:50 · 367 阅读 · 0 评论 -
昇思25天学习打卡营第7天 | 函数式自动微分
探索函数式自动微分在神经网络训练中的应用在深入学习神经网络训练过程中,我特别对自动微分技术产生了浓厚的兴趣。最近,我通过实际操作和学习了解到了MindSpore框架中实现的函数式自动微分,它在神经网络的训练过程中扮演了至关重要的角色。原创 2024-07-20 06:58:47 · 271 阅读 · 0 评论 -
昇思25天学习打卡营第8天 | 保存与加载
探索MindSpore中的模型保存与加载技术在深度学习的实践中,模型的保存与加载是至关重要的环节,它不仅关系到模型训练的效率,还直接影响到模型的部署和应用。通过MindSpore框架进行学习,我对如何有效地保存和重用训练好的神经网络模型有了更深入的理解和实践。原创 2024-07-20 07:35:29 · 310 阅读 · 0 评论 -
昇思25天学习打卡营第9天 | 使用静态图加速
使用静态图加速在MindSpore中的实践体验在深入学习MindSpore框架的过程中,我特别关注了动态图和静态图两种模式的运行机制及其各自的优缺点。通过实际编程实验和应用,我对静态图加速的效果和应用场景有了更深入的了解。原创 2024-07-20 07:56:26 · 191 阅读 · 0 评论 -
昇思25天学习打卡营第10天 | FCN图像语义分割
通过学习FCN在图像语义分割的应用,我不仅掌握了其网络结构和关键技术,还了解了在实际应用中可能遇到的问题及解决方案。FCN是由Jonathan Long等人在2015年提出的,作为第一个端到端的图像语义分割模型,它通过替换传统CNN中的全连接层为卷积层,实现了对任意大小图像的像素级分类。总之,FCN作为图像语义分割的开山之作,为我提供了深入理解和应用深度学习技术在视觉理解领域的窗口,为我的研究和职业发展奠定了坚实的基础。原创 2024-07-20 10:12:40 · 380 阅读 · 0 评论 -
昇思25天学习打卡营第11天 | ResNet50迁移学习
本次学习和实践过程加深了我对迁移学习在图像分类任务中应用的理解,特别是如何利用预训练模型来处理特定的图像识别问题。通过实际操作,我不仅学会了如何调整和优化深度学习模型,还提高了解决实际问题的能力。原创 2024-07-20 10:44:44 · 439 阅读 · 0 评论 -
昇思25天学习打卡营第12天 | ResNet50图像分类
在ResNet中,网络学习的是输入与输出差的残差,而不是直接学习映射关系,这样可以让网络通过恒等映射轻松地传递梯度,有效避免了深层网络中的梯度消失问题。通过训练得到的模型在CIFAR-10测试集上进行预测并进行可视化,使我能直观地看到模型的表现如何,哪些类别的预测效果好,哪些类别的预测效果差,这对于后续模型的优化提供了直接的线索。使用预训练的ResNet50进行微调是一个非常有效的策略,它可以利用在大规模数据集(如ImageNet)上学到的特征,快速适应新的任务,显著减少训练时间并提高最终模型的性能。原创 2024-07-20 13:30:57 · 249 阅读 · 0 评论 -
昇思25天学习打卡营第13天 | 模型训练
定义模型结构是另一个关键环节。通过定义一个包含多层全连接层的神经网络,我能够深入理解如何通过层叠不同的网络层来构建复杂的模型架构。这个过程中,我学习了的使用,这有助于简化模型构建过程,并使模型的结构更加清晰。原创 2024-07-20 14:00:10 · 183 阅读 · 0 评论 -
昇思25天学习打卡营第14天 | SSD目标检测
通过学习SSD,我不仅掌握了一种高效的目标检测算法,也对目标检测领域的技术挑战和发展趋势有了更深的理解。在未来的学习和研究中,我期待将这些知识应用于实际问题,探索更多创新的解决方案。原创 2024-07-20 18:57:51 · 287 阅读 · 0 评论 -
昇思25天学习打卡营第15天 | Vision Transformer图像分类
在ViT中,首先将输入图像划分为多个固定大小的patches,类似于NLP中的tokens的处理方式。这个思路摒弃了传统CNN中常用的卷积操作,而是直接将处理好的图像patches送入Transformer的编码器。而Vision Transformer(ViT)的提出,标志着Transformer结构在图像分类任务中的重要突破,打开了计算机视觉领域的新篇章。未来,我期待看到更多基于ViT的变体和改进,以适应更广泛的视觉任务,并进一步探索其在小样本学习和实时图像处理等方面的应用潜力。原创 2024-07-21 05:15:56 · 600 阅读 · 0 评论 -
昇思25天学习打卡营第16天 | ShuffleNet图像分类
其在图像分类任务上的应用表明,即使是在计算资源受限的环境中,也可以实现高效且精确的图像分类。特别是,模型训练过程中的多种回调函数提供了实时的训练状态监控,包括每一轮的损失和时间。在深入了解ShuffleNet之后,我对其结构和性能有了更深入的认识,尤其是其在保持模型轻量级的同时如何保证了良好的分类精度。例如,我尝试了不同的模型大小(如0.5x、1.0x、1.5x、2.0x)和组数(如3组和8组),这些配置提供了在精度和效率之间不同的权衡。通过这种方式,不同组的特征图能够交换信息,有效提升了特征提取的能力。原创 2024-07-21 06:00:42 · 274 阅读 · 0 评论 -
昇思25天学习打卡营第17天 | CycleGAN图像风格迁移互换
CycleGAN为图像风格迁移提供了一种强大的无监督学习方法。它不仅拓宽了GANs的应用范围,也推动了图像处理领域的发展。尽管存在一些挑战,但CycleGAN的成功应用展示了其强大的潜力和广阔的应用前景。对于未来,我期待将这一技术应用于更广泛的领域,并探索其在动态视频以及更复杂场景下的应用效果。原创 2024-07-21 06:23:10 · 346 阅读 · 0 评论 -
昇思25天学习打卡营第18天 | DCGAN生成漫画头像
DCGAN在生成动漫头像方面展示了强大的能力,不仅提高了图像的质量,也增强了训练的稳定性。通过实际操作,我不仅学到了如何构建和训练DCGAN模型,还对GANs在图像生成领域的应用有了更深入的了解。未来,我希望能将这种技术应用于更多的图像生成任务中,探索其在其他领域的潜力。原创 2024-07-21 06:41:25 · 371 阅读 · 0 评论 -
昇思25天学习打卡营第19天 | Pix2Pix实现图像转换
Pix2Pix 模型作为基于条件生成对抗网络(cGAN)的图像到图像的转换工具,在各种图像处理任务中展现了卓越的性能和灵活性。这篇学习心得将从几个主要方面探讨 Pix2Pix 的理论基础、结构特点、实践应用和我个人的体会。原创 2024-07-21 07:34:30 · 449 阅读 · 0 评论 -
昇思25天学习打卡营第20天 | LSTM+CRF序列标注
在自然语言处理(NLP)的领域中,序列标注是一个基础且关键的任务,涉及到从文本数据中提取有用信息,如命名实体识别(NER)、词性标注(POS)等。本次学习重点是探索如何结合长短时记忆网络(LSTM)和条件随机场(CRF)来执行序列标注任务,尤其是在命名实体识别上的应用。原创 2024-07-21 07:50:37 · 407 阅读 · 0 评论 -
昇思25天学习打卡营第21天 | 基于 MindSpore 实现 BERT 对话情绪识别
这次学习经历让我对 BERT 模型有了更深入的理解,特别是它在对话情绪识别任务中的应用。MindSpore 作为一个支持多种设备的深度学习框架,提供了许多便利的工具和 API,使得从模型构建到训练再到部署的全过程变得简单高效。尽管当前的模型已经能够达到不错的效果,未来的工作可以探索更多的改进方法,例如通过更细粒度的情绪分类来提高模型的应用价值,或者尝试其他更先进的模型结构如 Transformer-XL 来进一步提升性能。原创 2024-07-21 08:10:00 · 629 阅读 · 0 评论 -
昇思25天学习打卡营第22天 | 基于MindNLP+MusicGen生成自己的个性化音乐
在人工智能领域,音乐生成是一个非常有趣且具有挑战性的任务。最近,我有幸接触到由Meta AI开发的MusicGen模型,并通过MindNLP平台进行实操。这个过程不仅让我对人工智能在艺术创作中的应用有了深入的了解,也体验到了音乐生成技术的魅力。原创 2024-07-21 11:10:37 · 308 阅读 · 0 评论 -
昇思25天学习打卡营第23天 | 基于MindSpore的红酒分类实验
这次基于MindSpore的红酒分类实验不仅让我掌握了KNN算法,也让我体验到了MindSpore在机器学习领域的强大功能。通过实践,我对机器学习的理论与实际应用有了更深刻的理解。未来我期待在更多的数据集和不同的机器学习任务上应用这些知识。原创 2024-07-21 11:18:01 · 484 阅读 · 0 评论 -
昇思25天学习打卡营第24天 | 基于MobileNetv2的垃圾分类
通过基于MobileNetV2的垃圾分类项目,我不仅提高了编程技能和机器学习的实操能力,还增强了我对深度学习在现实世界中应用的理解。这次经历让我对未来在AI领域的发展充满了期待和信心。原创 2024-07-21 11:26:36 · 284 阅读 · 0 评论 -
昇思25天学习打卡营第25天 | RNN实现情感分类
通过MindSpore框架实现RNN进行情感分类的学习让我对NLP领域有了更深入的理解,也让我体会到了深度学习在解决实际问题中的强大能力。未来我期待在更多的NLP任务中应用这些知识,继续探索和学习最前沿的技术。原创 2024-07-21 11:43:47 · 527 阅读 · 0 评论 -
昇思25天学习打卡营第26天 | GAN图像生成
而判别器的任务则是区分出哪些图像是真实的,哪些是由生成器产生的。在我的项目中,生成器和判别器都使用了多层的全连接层,这对于处理MNIST这样的简单数据集来说足够了。通过这次学习,我对GAN有了更深入的认识,尤其是在图像生成方面。通过这一过程,我不仅加深了对GAN的理解,而且对于深度学习在图像处理领域的应用有了更实际的把握。在我的项目中,我尝试了不同的网络结构、批次大小和学习率,每次改变都需要重新评估模型的表现。在GAN项目中,评估生成图像的质量部分依赖于主观判断,例如通过可视化生成的图像来直观感受其质量。原创 2024-07-21 11:54:09 · 396 阅读 · 0 评论 -
昇思25天学习打卡营第27天 | Diffusion扩散模型
在我最近对生成模型的学习中,尤其是Diffusion模型,我发现这是一种极具潜力的技术,特别是在图像生成领域。特别是OpenAI的DALL-E 2就是基于Diffusion模型,能够生成高质量的图像,并且能根据文本描述来生成特定内容的图像,显示出了极大的应用潜力。然而,这种模型的一个显著优势是其生成的图像质量往往更高,更少见到模式崩溃的情况,这在传统的GAN模型中是一个常见问题。在自己动手实验Diffusion模型的过程中,我体会到了模型训练的复杂性,特别是在模型配置和训练过程中需要调整的参数众多。原创 2024-07-21 12:00:32 · 239 阅读 · 0 评论 -
昇思25天学习打卡营第28天 | 基于MindSpore的GPT2文本摘要
实验中指定安装特定版本的MindSpore和其他必要的库,如tokenizers和mindnlp,保证了代码的兼容性和运行的稳定性。通过自定义的数据预处理函数,将文本数据转换为模型训练所需的格式,这一步骤的细致和正确直接影响到模型训练的效果。特别地,模型训练中包括了学习率的动态调整策略,这对于控制训练过程中的学习效率和避免过拟合非常关键。基于MindSpore的GPT2文本摘要涵盖了从环境设置、数据处理到模型训练和推理的全流程实现,这为理解和应用深度学习在自然语言处理中的实际应用提供了一个详实的范例。原创 2024-07-22 06:39:20 · 215 阅读 · 0 评论 -
昇思25天学习打卡营第29天 | 基于MindSpore通过GPT实现情感分类
使用了预训练的GPT模型,并调整其头部以适应情感分类任务,这是迁移学习中的一种常见实践,可以显著提升模型在特定任务上的表现。通过这次基于MindSpore的GPT情感分类学习,不仅加深了对于MindSpore框架的理解,也对如何在实际应用中部署和优化深度学习模型有了更深入的认识。最后,通过在测试集上的评估,可以得出模型的性能和准确性。基于MindSpore框架通过GPT模型实现情感分类展示了从项目设置、数据预处理到模型训练和评估的详细步骤,提供了一个完整的案例来理解如何在自然语言处理任务中实现情感分析。原创 2024-07-22 06:44:42 · 490 阅读 · 0 评论 -
昇思25天学习打卡营第30天 | 文本解码原理--以MindNLP为例
学习MindNLP进行文本解码的经验为我揭示了自然语言处理中文本生成技术的复杂性与美妙之处。通过使用MindNLP库,我能够深入理解并实践如何基于预训练的GPT2模型生成文本,特别是学习如何控制生成过程,从贪婪搜索到Beam搜索,再到采样技术,每种方法都有其独特的优势和适用场景。原创 2024-07-22 06:51:38 · 2130 阅读 · 0 评论 -
昇思25天学习打卡营第31天 | MindNLP ChatGLM-6B StreamChat
最后,这个案例不仅技术含量高,而且具有很强的实用性和教育意义。通过亲自动手配置和测试聊天模型,学习者可以更深刻地理解自然语言处理中的序列到序列模型的工作原理和应用场景。此外,设置网络线路的步骤也显得非常重要,这确保了在下载模型和权重时可以更稳定地连接到所需的服务器。这里特别提到了下载权重可能需要较长时间,这是在实际应用中常见的挑战之一,也突显了在使用大型预训练模型时需要考虑的网络带宽和连接稳定性。这一部分的错误处理和调试信息(如数据类型的注意事项)也为开发者提供了调试和优化模型性能的实际指导。原创 2024-07-22 06:56:36 · 152 阅读 · 0 评论