自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

  • 博客(30)
  • 资源 (2)
  • 收藏
  • 关注

原创 《昇思25天学习打卡营第25+5天|gaoba13j》

2.模型主体的Block结构是基于Transformer的Encoder结构,但是调整了Normalization的位置,其中,最主要的结构依然是Multi-head Attention结构;3.模型在Blocks堆叠后接全连接层,接受类别向量的输出作为输入并用于分类。1.数据集的原图像被划分为多个patch(图像块)后,将二维patch(不考虑channel)转换为一维向量,再加上类别向量与位置向量作为模型输入;它是不依赖卷积操作的情况下,依然可以在图像分类任务上达到很好的效果的一种经典的分类方法。

2024-07-23 09:28:00 156

原创 《昇思25天学习打卡营第25+4天|gaoba13j》

它是一种单阶段的目标检测算法,通过卷积神经网络进行特征提取,取不同的特征层进行检测输出,所以也属于一种多尺度的检测方法,同时也是以VGG16作为基础的一种升级版优化模型。SSD,全称为Single Shot MultiBox Detector,即单步多框目标检测。打卡第29天,今天学习 SSD目标检测。

2024-07-22 09:24:02 172

原创 《昇思25天学习打卡营第25+3天|gaoba13j》

ShufflenetV1是旷视科技提出的一种计算高效的CNN模型;可以简称为一种轻量级CNN网络,有其他的比如:MobileNet。此模型设计目的就是利用有限的计算资源来达到最好的模型精度;逐点群卷积,通道洗牌。在保持精度的同时大大降低了模型的计算量。打卡第28天,今天学习 ShuffleNet图像分类。

2024-07-21 09:30:22 118

原创 《昇思25天学习打卡营第25+2天|gaoba13j》

传统的卷积神经网络是将一系列的卷积层和池化层堆叠得到的,但当网络堆叠到一定深度时,就会出现退化问题。ResNet相较传统而言 提出了残差网络结构来减轻退化问题,可以实现深度1000+。图像分类是最基础的有监督学习类型的计算机视觉应用。打卡第27天,今天学习 ResNet50图像分类。

2024-07-21 08:52:34 91

原创 《昇思25天学习打卡营第25+1天|gaoba13j》

简单来说可以理解为,“使用原有已训练好的猫模型,修改修改初始化网络权重参数等,重新进行老虎的训练从而得到新的老虎识别模型”。迁移学习指的是 基于一个已有的与训练模型,然后重新初始化网络的权重参数或作为固定特征提取器应用于相关特定的任务中。打卡第26天,今天学习ResNet50迁移学习。数据集为:ImageNet的狼狗数据集。

2024-07-19 09:17:24 118

原创 《昇思25天学习打卡营第25天|gaoba13j》

此网络特点:1.不含全连接层的全卷积网络,可适应任意尺寸输入;2.增大数据尺寸的反卷积层,能够输出精细的结果;3.结合不同深度层结果的跳级(skip)结构,同时确保鲁棒性和精确性。FCN,全称 Fully Convolutional Networks,即 全卷积网络。它是首个端到端进行像素级预测的全卷积网络;可使用数据集为:PASCAL VOC 2012数据集,SDB数据集。打卡第25天,今天学习FCN图像语义分割。1.卷积化,2.上采样,3.跳跃结构;

2024-07-18 09:31:32 196

原创 《昇思25天学习打卡营第24天|gaoba13j》

Pix2Pix是基于它实现的一种深度学习图像转换模型;它用于实现语义/标签到真实图片、灰度图到彩色图、航空图到地图、白天到黑夜、线稿图到实物图的转换。cGAN 全称 Condition Generative Adversarial Networks,即 条件生成对抗网络。打卡第24天,今天学习 Pix2Pix实现图像转换。既然为生成对抗网络的一种,同样具有两个部分。

2024-07-17 09:12:26 144

原创 《昇思25天学习打卡营第23天|gaoba13j》

GAN,全称 Generative Adversarial Networks,即生成式对抗网络;它是一种生成式机器学习模型,近年来复杂分布上无监督学习最具前景的方法之一。其包含生成模型和判别模型两个主要模块,设计思想为 使两个模块互相博弈学习从而产生好的输出结果。打卡第23天,今天学习 GAN图像生成。

2024-07-16 09:24:12 170

原创 《昇思25天学习打卡营第22天|gaoba13j》

它基于Hugging Face: The Annotated Diffusion Model 翻译迁移而来,同时参考了 由浅入深了解Diffusion Model。2.一个可学习的反向去噪的扩散过程 P :通过训练神经网络从纯噪声开始逐渐对图像去噪,直到最终得到一个实际的图像。1.选择一个固定(或预定义)正向扩散过程 Q :它逐渐将高斯噪声添加到图像中,直到最终得到纯噪声;出发点为 从纯噪声开始通过一个神经网络学习逐步去噪,最终得到一个实际图像。打卡第22天,今天学习 diffusion 扩散模型,

2024-07-15 10:43:57 129

原创 《昇思25天学习打卡营第21天|gaoba13j》

DCGAN,全称Deep Convolutional Generative Adversarial Networks,即 深度卷积对抗生成网络,是GAN的直接扩展,不同之处为 DCGAN会分别在判别器和生成器中使用卷积和转置卷积层。同样是下载数据集,然后处理数据,再构造网络 添加生成器和判别器,最后模型训练 选取设置好损失函数和优化器并进行训练,最后展示结果。打卡第21天, 今天学习DCGAN生成漫画头像、

2024-07-14 09:15:58 165

原创 《昇思25天学习打卡营第20天|gaoba13j》

CycleGAN 全称:Cycle Generative Adversarial Network, 即 循环对抗生成网络,它实现了一种在没有配对示例的情况下学习将图像从源域 X 转换到目标域 Y 的方法。其重要应用为图像风格迁移,它不需要他们有严格对应关系,是一种新的无监督的图像迁移网络。打开第20天,今天学习CycleGEN图像风格迁移互换。

2024-07-14 08:52:49 136

原创 《昇思25天学习打卡营第19天|gaoba13j》

RNN 即循环神经网络,与CNN相对应的另一种深度学习模型,它特别适合处理具有序列或顺序依赖的数据。情感分类是自然语言处理中的经典任务,是典型的分类问题。首先,数据准备 包括 下载和加载数据集,预训练词向量,打卡第19天,今天学习 RNN实现情感分类。然后再模型构建,训练和保存,最后,模型加载与测试。其次,数据集预处理,

2024-07-12 09:28:25 141

原创 《昇思25天学习打卡营第18天|gaoba13j》

CRF 即 条件随机场 一种适合此类场景的一种概率图模型,它能够学习到 命名实体识别视为多分类问题而每个词的预测概率都是独立的 关联关系的算法来保证预测结果的正确性。LSTM 即 循环神经网络的典型场景 长短期记忆网络。打卡第18天,今天学习 LSTM+CRF序列标注。

2024-07-11 09:27:25 94

原创 《昇思25天学习打卡营第17天|gaoba13j》

模型原型为google提出的专注于移动端,嵌入式或iot设备的轻量级CNN网络 MobileNet。打卡第17天,今天学习 基于MobileNetv2的垃圾分类。1.熟悉通过python实现垃圾分类应用代码的编写。3.掌握atc命令进行模型转换的基本操作。2.了解Linux操作系统的基本使用。

2024-07-10 09:28:43 131

原创 《昇思25天学习打卡营第16天|gaoba13j》

简单描述即 数据集 可以根据相似/同 性,进行分类,然后不同大类之间的差异会很大,量化到比如用距离来衡量的化, 大类之内的数据差异如果在1以内的话,那么大类之间的数据差异则会在5或者10之上,当然会存在离散的例外数据样本。只要正确率达到设定或更好就说明有效。首先,了解分类,此实验则是使用分类方法之一的K近邻聚类算法,简称KNN。打卡第16天,今天学习基于Mindspore的红酒分类实验。

2024-07-09 09:23:51 126

原创 《昇思25天学习打卡营第15天|gaoba13j》

3.对这些token使用音频压缩模型(如EnCodec)进行解码,以恢复音频波形。1.用户输入的文本描述传递给一个固定的文本编码器模型,得到一系列隐形状态表示。2.训练MusicGen解码器来预测离散的隐形状态音频token。打卡第15天,今天学习 通过AI实现自己个性化音乐的创作。

2024-07-08 10:44:58 182

原创 《昇思25天学习打卡营第14天|gaoba13j》

打卡第14天,今天学习一个案例,基于MindNLP和ChatGLM-6B实现一个聊天应用。2.然后配置网络线路并下载权重,就可以开始尝试聊天了,可以适当修改参数查看效果。

2024-07-08 08:53:31 205

原创 《昇思25天学习打卡营第13天|gaoba13j》

当然需要导入mindNLP库,然后建立模型生成数据集开始编解码训练。打卡第13天,今天学习 应用实践之文本解码原理以mindNLP为例。在原有自回归语言模型基础上,使用贪心搜索算法 或者 束搜索算法。今天外出打卡,终于是用手机操作完成 此次课程,太不容易了。

2024-07-06 20:24:02 77

原创 《昇思25天学习打卡营第12天|gaoba13j》

首先,还是先安装需要的支持包 mindnlp和jieba,并配置环境变量HF_ENDPOINT。打卡第12天,今天学习神经网络之基于MindSpore通过GPT实现情感分类的实例。然后,加载数据集,随机进行分割成需要的训练集和测试集。最后,再使用测试集对训练出来的模型进行测试。随后,导入建立分词器,并导入数据开始训练。

2024-07-05 09:37:01 211

原创 《昇思25天学习打卡营第11天|gaoba13j》

其次如正常网络神经模型建立和训练无异,开始下载数据集,这次使用的是nlpcc2017摘要数据,然后进行初步处理方便导入模型使用。打卡第11天,今天学习基于MindSpore的GPT2文本摘要,首先需要安装mindnlp和tokenizers两个支持包。然后,构建模型,并加入数据进行训练。最后,待训练完可以进行推理验证。

2024-07-04 09:31:32 130

原创 《昇思25天学习打卡营第10天|gaoba13j》

然后就是通过mindspore建立训练模型,再下载导入情绪检测数据集并开始训练。打卡第10天,今天学习和实践 基于mindspore实现bert对话情绪识别。首先需要安装mindnlp支持包,直接输入执行。完成安装后有报如下信息,可以忽略。最后根据结果可以进行分析和优化。即可,在ipython界面。

2024-07-03 09:31:13 189

原创 《昇思25天学习打卡营第09天|gaoba13j》

后者特点为 将计算图的构建和实际计算分开,又称为Graph模式,针对图优化、计算图整图下沉等技术,编译器能对图进行全局的优化,获得较好的性能。前者特点为 计算图的构建和计算同时发生,符合Python的解释执行方式,也称为PyNative模式;打卡第9天,今天学习AI编译框架的运行模式,有两种为: 动态图模式和静态图模式。而mindspore同时支持两者。

2024-07-02 09:25:06 147

原创 《昇思25天学习打卡营第08天|gaoba13j》

打卡第8天,今天学习对训练阶段性结果或者训练好的模型的保存与已有模型结果的重新加载。其目的和优点主要为 微调已有模型参数和方便后续的模型推理与部署。或者在原有模型基础上进行类似的新的模型训练,无需重再0开始,节省大量训练时间。mindspore集成此功能,方便我们使用。

2024-07-01 09:29:25 111

原创 《昇思25天学习打卡营第07天|gaoba13j》

1.需要自建数据集或者从已知网络链接下载,用于模型训练的输入数据;2.定义一个满足要求的神经网络模型,后续可以据效果进行增删完善;3.定义相关超参,损失函数和优化器等,后续也据效果适当调整;4.输入数据集,开始模型训练,并进行调整,择优后评估。

2024-06-30 09:27:07 105

原创 《昇思25天学习打卡营第06天|gaoba13j》

今天学习函数式自动微分,自动微分主要应用与可导函数在某点处的导数值,他是反向传播算法的一般化。而反向传播算法通常是神经网络训练求梯度等更新模型参数的重要一环。其优点是能将一个复杂的数学运算分解为一系列简单的基本运算,屏蔽了大量的求导细节和过程,降低了框架的使用门槛。而mindspore同样高集成了此功能。

2024-06-30 08:53:56 157

原创 《昇思25天学习打卡营第05天|gaoba13j》

打卡第5天,开始了解神经网络,并初步学习了神经网络模型,已经神经网络分层的思想和实现基本过程。最小单元结构称之为神经元,因而可以通过嵌套的方式使之能表达复杂的网络结构,在使用面向对象编程的理念,可以很方便的对神经网络进行构建和管理。mindspore同样继承了nn的功能。

2024-06-28 19:10:50 78

原创 《昇思25天学习打卡营第04天|gaoba13j》

通常,原始数据并不能直接用于神经网络训练。我们需要将其进行预处理,然后通过数据变换使其关键/有用部分能正确可识别后再传递给到数据处理管道/中心。其中,变换主要包括但不限于: 重缩放,正则归一化,图像格式统一化等。mindspore集成度很好。今天打卡学习的是 数据变换:Transforms。

2024-06-27 09:32:34 101

原创 《昇思25天学习打卡营第03天|gaoba13j》

数据集,可以从网上指定地址链接下载,如果网络上没有相应需要的数据集,也可以自定义数据集,不过需要按照给定的标准,方可使用对应的api操作。同时,通过下载数据集训练模型也使得编程变得简单很多,mindspore封装提供了很大的便利。今天打卡,了解了数据集的使用和基本操作。

2024-06-26 09:19:45 98

原创 《昇思25天学习打卡营第02天|gaoba13j》

张量, 就像一种数据类型或结构,主要用于表达和方便多维数据的和积等矩阵型操作或运算。感觉到其应用场景的广阔,尤其是其元素可以为各种类型,为应用带来了极大的方便。通过python操作更显简单便捷。为mindspore集成度赞。

2024-06-25 12:56:23 83

原创 《昇思25天学习打卡营第01天|gaoba13j》

学习打卡第一天,感觉很激动,直接在已有的平台和环境上通过python脚本的方式,导入包并调用系统已支持的api,实现一些简单的模型训练,训练完心情有点小激动啊。感觉真的很棒,开启迈入AI学习的大门了。

2024-06-24 20:06:24 76

一些典型的VC源程序代码

适用于初学者编程时做个方便的参考,达到快速入门的目的。

2008-10-26

一些自己运行了的单片机程序

便于初学者通过自己动手更快的了解单片机知识,推荐的几个典型程序

2008-10-26

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除