自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(25)
  • 收藏
  • 关注

原创 昇思25天学习打卡营第25天|Pix2Pix实现图像转换

Pix2Pix是基于条件生成对抗网络(cGAN, Condition Generative Adversarial Networks )实现的一种深度学习图像转换模型,该模型是由Phillip Isola等作者在2017年CVPR上提出的,可以实现语义/标签到真实图片、灰度图到彩色图、航空图到地图、白天到黑夜、线稿图到实物图的转换。生成器和判别器。传统上,尽管此类任务的目标都是相同的从像素预测像素,但每项都是用单独的专用机器来处理的。

2024-07-18 10:04:12 729

原创 昇思25天学习打卡营第24天|Diffusion扩散模型

本次学习的扩散模型(Diffusion Models)主要是基于denoising diffusion probabilistic model (DDPM)的模型。DPM已经在(无)条件图像/音频/视频生成领域取得了较多显著的成果,现有的比较受欢迎的的例子包括由OpenAI主导的GLIDE和DALL-E 2、由海德堡大学主导的潜在扩散和由Google Brain主导的图像生成。

2024-07-17 15:03:12 660

原创 昇思25天学习打卡营第23天|DCGAN生成漫画头像

DCGAN(深度卷积对抗生成网络,Deep Convolutional Generative Adversarial Networks)是GAN的直接扩展。不同之处在于,DCGAN会分别在判别器和生成器中使用卷积和转置卷积层。它最早由Radford等人在论文中进行描述。判别器由分层的卷积层、BatchNorm层和LeakyReLU激活层组成。输入是3x64x64的图像,输出是该图像为真图像的概率。生成器则是由转置卷积层、BatchNorm层和ReLU激活层组成。

2024-07-16 10:23:45 384

原创 昇思25天学习打卡营第22天|GAN图像生成

今天来学习“GAN图像生成”,这是一个基础的生成式模型。生成式对抗网络(Generative Adversarial Networks,GAN)是一种生成式机器学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。最初,GAN由Ian J. Goodfellow于2014年发明,并在论文生成器的任务是生成看起来像训练图像的“假”图像;判别器需要判断从生成器输出的图像是真实的训练图像还是虚假的图像。GAN通过设计生成模型和判别模型这两个模块,使其互相博弈学习产生了相当好的输出。

2024-07-15 10:52:28 1002

原创 昇思25天学习打卡营第21天|CycleGAN 图像风格迁移互换

从今天开始到第25天的学习内容都是生成式网络的内容。今天要学习的第一个生成式网络是CycleGAN,目标是实现图像风格迁移互换。CycleGAN(Cycle Generative Adversarial Network) 即循环对抗生成网络,来自论文。该模型实现了一种在没有配对示例的情况下学习将图像从源域 X 转换到目标域 Y 的方法。该模型一个重要应用领域是域迁移(Domain Adaptation),可以通俗地理解为图像风格迁移。

2024-07-14 09:57:44 855

原创 昇思25天学习打卡营第20天|Vision Transformer图像分类

今天学习一种新的图像分类的模型–Vision Transformer图像分类模型。近些年,随着基于自注意(Self-Attention)结构的模型的发展,特别是Transformer模型的提出,极大地促进了自然语言处理模型的发展。由于Transformers的计算效率和可扩展性,它已经能够训练具有超过100B参数的空前规模的模型。ViT则是自然语言处理和计算机视觉两个领域的融合结晶。在不依赖卷积操作的情况下,依然可以在图像分类任务上达到很好的效果。

2024-07-13 15:37:54 775

原创 昇思25天学习打卡营第19天|ShuffleNet图像分类

在第15-18日的学习内容中,我们陆陆续续学习了计算机视觉相关的模型包括图像语义分割、图像分类、目标检测等内容,这些模型的运算往往都是在大算力设备上运行的,今天学习一种可以在移动设备上运行的图像分类模型-“ShuffleNet”。ShuffleNetV1是旷视科技提出的一种计算高效的CNN模型,和MobileNet, SqueezeNet等一样主要应用在移动端,所以模型的设计目标就是利用有限的计算资源来达到最好的模型精度。

2024-07-12 09:19:14 1093

原创 昇思25天学习打卡营第18天|SSD目标检测

在第15天的学习内容中,我们接触到了用于图像语义分割的VGG-16模型,今天学习的内容也是在VGG-16的基础上实现目标检测。目标检测任务的实现目标是识别图像中存在物体,标识其边界并进行分类识别。SSD,全称Single Shot MultiBox Detector,是Wei Liu在ECCV 2016上提出的一种目标检测算法。

2024-07-11 09:59:17 811

原创 昇思25天学习打卡营第17天|ResNet50迁移学习

上节课的学习了ResNet50图像分类相关的内容,今天学习的内容是的"ResNet50迁移学习"相关的内容。迁移学习就是把已训练好的模型参数迁移到新的模型来帮助新模型训练。在实际场景中的,由于训练数据集不足,所以很少会从头开始训练整个网络。普遍做法是,在一个大的数据集上训练得到一个预训练模型,然后使用该模型来初始化网络的权重参数或作为固定特征提取器应用于特定的任务中。今天学习的内容是采用ResNet50模型进行迁移学习,将数据集中到的狼和狗的图像分类。

2024-07-10 11:04:16 687

原创 昇思25天学习打卡营第16天|ResNet50图像分类

自卷积神经网络模型取得成功以来,更深、更宽、更复杂的网络成为卷积神经网络搭建的主流。但是随着网络往更深、更宽的方向发展,人们发现模型的准确率并不能一直上升达到100%,甚至会出现下降,这种现象被称为“神经网络的退化”。神经网络退化的产生说明卷积神经网络不能够简单的使用堆叠的方法进行优化。2015年,152层深的ResNet(残差网络)的出现提出了一种新的解决方案,将训练深度扩展到的数数千层的同时保证性能仍然优越,成为了AI界的一个经典。

2024-07-09 09:40:04 1280

原创 昇思25天学习打卡营第15天|FCN图像语义分割

将底层(stride 32)的预测(FCN-32s)进行2倍的上采样得到原尺寸的图像,并与从pool4层(stride 16)进行的预测融合起来(相加),这一部分的网络被称为FCN-16s。语义在图像领域指的是图像的内容,对图片意思的理解。这里面主要学习的要点是理解的FCN模型模型的原理,模型评价指标的计算原理和方法,另外一方面是着重掌握基于mindspore进行模型开发的相关代码。在卷积过程的卷积操作和池化操作会使得特征图的尺寸变小,为得到原图的大小的稠密图像预测,需要对得到的特征图进行上采样操作。

2024-07-08 10:10:56 686

原创 昇思25天学习打卡营第14天|RNN实现情感分类

情感分类任务在LLM原理及实践的部分已经学习过基于LLM进行实现的方法,今天要学习的是传统基于深度学习神经网络进行进行情感分类的方法。本次所使用的数据集来自互联网电影资料库(Internet Movie Database,简称IMDb)的电影评论数据,目标是识别电影评论的情感类型:积极的或则消极的,用于训练的数据集标注了评论对应的情感类型。本次需要使用预训练词向量对自然语言单词进行编码,以获取文本的语义特征,本节选取Glove词向量作为Embedding。

2024-07-08 01:40:21 913

原创 昇思25天学习打卡营第13天|LSTM+CRF序列标注

从今天开始就是学习自然语言处理领域的几个实战案例。今天学习的内容是基于LSTM+CRF来实现序列标注。序列标注任务概述条件随机场(CRF)的基本原理基于LSTM+CRF实现序列标注的主要代码序列标注指给定输入序列,给序列中每个Token进行标注标签的过程。序列标注问题通常用于从文本中进行信息抽取,包括分词(Word Segmentation)、词性标注(Position Tagging)、命名实体识别(Named Entity Recognition, NER)等。输入序列清华大学座。

2024-07-07 01:53:08 575

原创 昇思25天学习打卡营第12天|基于MindSpore通过GPT实现情感分类

今天是LLM原理和实践的第三课,今天学习的目标学习通过GPT实现情感分类的代码。本次所使用的数据集来自互联网电影资料库(Internet Movie Database,简称IMDb)的电影评论数据,目标是识别电影评论的情感类型:积极的或则消极的,用于训练的数据集标注了评论对应的情感类型。本次所使用的模型为,是GPT-1中的一个文本分分类模型。

2024-07-05 10:02:04 369

原创 昇思25天学习打卡营第11天|基于MindSpore的GPT2文本摘要

今天是LLM原理和实践的第二课今天学习的目标如何给予MindSpore实现GPT2文本摘要,要点有以下内容:1.学习文本摘要任务的主要实现目标2.实践数据处理的方法3.实践模型构建、训练与推理的方法文本摘要生成是自然语言处理领域的一个重要问题,其核心任务是根据输入的文本内容自动生成包含重要信息的简短摘要。文本摘要生成技术可以帮助人们快速获取并理解大量信息,具有广泛的应用前景。信息压缩:将原始文本内容进行精炼、概括,去除冗余信息,以便读者快速获取主要信息。语义保持。

2024-07-04 17:22:57 341

原创 昇思25天学习打卡营第10天|基于 MindSpore 实现 BERT 对话情绪识别

从今天开始以后就是实践类的课程了,我选择从NLP方向开始学习,今天学习的目标是如何实现基于BERT的对话情绪识别?1.了解的BERT模型的原理2.实战基于BERT模型的情绪识别代码。

2024-07-03 10:45:01 498

原创 昇思25天学习打卡营第9天|使用静态图加速

今天学习的内容是了解动态图模式和静态图模式的区别和应用场景。1.动态图模式2.静态图模型。

2024-07-02 09:36:23 424

原创 昇思25天学习打卡营第8天|保存与加载

本节学习的内容就是模型训练结果的保存与加载,整体内容较少。这里主要掌握两种保存的形式,一种是将模型训练后的权重参数保存为的ckpt格式,下次使用时可以创建一个相同的模型实例后直接加载即可进行推理等操作。二是同时保存模型和权重参数,这样可以实现在云端训练,在端侧进行推理,使用时不需要知道模型的结构定义。保存模型使用save_checkpoint接口,要加载模型权重,需要先创建相同模型的实例,然后使用load_checkpoint和load_param_into_net方法加载参数。

2024-07-01 09:25:59 434

原创 昇思25天学习打卡营第7天|模型训练

今天学习的内容是如何利用前面学习的知识来实现模型训练?构建数据集。定义神经网络模型。定义超参、损失函数及优化器。输入数据集进行训练与评估。在前面的介绍中已经介绍过关于神经网络模型的定义,主要是基于mindspore.nn提供的类来进行创建。训练轮次(epoch):训练时遍历数据集的次数。批次大小(batch size):数据集进行分批读取训练,设定每个批次数据的大小。batch size过小,花费时间多,同时梯度震荡严重,不利于收敛;

2024-06-30 12:17:25 312

原创 昇思25天学习打卡营第6天|函数式自动微分

今天学习的内容是如何构建神经网络?神经网络模型是由神经网络层和Tensor操作构成,mindspore.nn提供常见神经网络层的实现,也是本节学习的主要内容。mindspore中的模型的定义主要基于nn.Cell类来实现。#定义网络nn.ReLU(),nn.ReLU(),#创建网络#计算随机数据的预测值logits#定义nn.Softmax层实例来获得预测概率。

2024-06-29 15:54:34 784

原创 昇思25天学习打卡营第5天|数据变换 Transforms

今天的学习目标是了解数据变换以及模块的功能。数据集在进行神经网络训练的之前需要进行处理,这就需要使用Transforms模块来实现对不同数据的变换。提供了面向图像、文本、音频等不同数据类型的Transforms,同时也支持使用Lambda函数。

2024-06-28 09:47:58 917

原创 昇思25天学习打卡营第4天|数据集 Dataset

今天学习的主题是:认识数据集datasetMindSpore提供基于Pipeline的数据引擎,通过数据集(Dataset)和数据变换(Transforms)实现高效的数据预处理,其中数据集市基础。mindspore.dataset提供了内置的文本、图像、音频等数据集加载接口,并提供了自定义数据集加载接口。数据集的内容主要包括 数据集的加载、数据集迭代、 数据集的常规操作、自定义数据集等4个部分的内容。

2024-06-27 09:56:27 430

原创 昇思25天学习打卡营第3天|张量Tensor

张量(Tensor)是一种类似数组、矩阵的数据结构,可以理解为支持嵌套的变长多维数组。稀疏张量是对于张量中大量存在0元素的情况下的一种压缩存储的结构。张量支持加(+)、减(-)、乘(\*)、除(/)、取模(%)、整除(//)等运算。整体来说,张量的整体用起来更像是一个的可变的多维数组,其运算符的复杂程度要低于矩阵。张量的属性包括形状、数据类型、转置张量、单个元素大小、占用字节数量、维数、元素个数和每一维步长。今天是参加昇思25天学习打卡营的第三天,学习的内容是《张量Tensor》,这里做一个简单的分享。

2024-06-26 09:47:40 170

原创 昇思25天学习打卡营第2天|快速入门

模型训练的过程主要包括正向计算、反向传播、参数优化三个部分,我们需要定义正向计算函数、反向传播函数、参数优化函数以及用于评估性能的测试函数。基于已经保存好的模型,我们可以通过加载函数来加载模型,直接使用已经训练好的成果。模型的加载主要包括两个步骤:一是重新实例化模型对象,二是将参数从磁盘中读入然后加载到的该实例对象。今天是参加昇思25天学习打卡营的第二天,学习的内容是昇思框架的要给快速入门,这里做一个简单的分享。训练好的模型可以的通过的保存函数来保存模型的参数用于后续直接调用模型。(5)模型的加载和使用。

2024-06-25 09:29:47 370

原创 昇思25天学习打卡营第1天|基本介绍

通过本章的学习的,可以系统的从框架、执行流程、设计理念、层次结构等不同角度了解了昇思的冰山一角,对昇思有了一个初步的了解。昇思MindSpore是一个全场景深度学习框架,其核心在于为深度学习模型的开发、执行、部署提供框架支持。今天是参加昇思25天学习打卡营的第一天,学习的内容是昇思技术体系的基本介绍,这里做一个简单的分享。部署方面:框架提供全场景的统一部署的能力支持,覆盖了云、边、端场景的灵活部署。开发方面:提供友好的深度学习API,可以降低模型学习开发的难度;

2024-06-24 16:23:31 214

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除