自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(32)
  • 资源 (5)
  • 收藏
  • 关注

原创 昇思25天学习打卡营第24天|RNN实现情感分类

情感分类是自然语言处理中的经典任务,是典型的分类问题。输入: This film is terrible正确标签: Negative预测标签: Negative输入: This film is great正确标签: Positive预测标签: Positive。

2024-07-18 08:36:52 478

原创 昇思25天学习打卡营第23天|文本解码原理--以MindNLP为例

按照贪心搜索输出序列(“The”,“nice”,“woman”) 的条件概率为:0.5 x 0.4 = 0.2。缺点: 错过了隐藏在低概率词后面的高概率词,如:dog=0.5, has=0.9。

2024-07-17 08:52:37 71

原创 昇思25天学习打卡营第22天|LSTM+CRF序列标注

序列标注指给定输入序列,给序列中每个Token进行标注标签的过程。序列标注问题通常用于从文本中进行信息抽取,包括分词(Word Segmentation)、词性标注(Position Tagging)、命名实体识别(Named Entity Recognition, NER)等。输入序列清华大学座落于首都北京输出标注BIIIOOOOOBI如上表所示,清华大学和北京是地名,需要将其识别,我们对每个输入的单词预测其标签,最后根据标签来识别实体。

2024-07-16 07:37:53 902

原创 昇思25天学习打卡营第21天|DCGAN生成漫画头像

判别器由分层的卷积层、BatchNorm层和LeakyReLU激活层组成。输入是3x64x64的图像,输出是该图像为真图像的概率。生成器则是由转置卷积层、BatchNorm层和ReLU激活层组成。输入是标准正态分布中提取出的隐向量。DCGAN(深度卷积对抗生成网络,Deep Convolutional Generative Adversarial Networks)是GAN的直接扩展。不同之处在于,DCGAN会分别在判别器和生成器中使用卷积和转置卷积层。,输出是3x64x64的RGB图像。

2024-07-15 08:12:22 178

原创 昇思25天学习打卡营第20天|CycleGAN图像风格迁移互换

CycleGAN(Cycle Generative Adversarial Network) 即循环对抗生成网络,来自论文。该模型实现了一种在没有配对示例的情况下学习将图像从源域 X 转换到目标域 Y 的方法。该模型一个重要应用领域是域迁移(Domain Adaptation),可以通俗地理解为图像风格迁移。

2024-07-14 02:58:50 686

原创 昇思25天学习打卡营第19天|基于MindNLP+MusicGen生成自己的个性化音乐

MusicGen是来自Meta AI的Jade Copet等人提出的基于单个语言模型(LM)的音乐生成模型,能够根据文本描述或音频提示生成高质量的音乐样本,相关研究成果参考论文《MusicGen直接使用谷歌的及其权重作为文本编码器模型,并使用及其权重作为音频压缩模型。MusicGen解码器是一个语言模型架构,针对音乐生成任务从零开始进行训练。MusicGen 模型的新颖之处在于音频代码的预测方式。

2024-07-13 07:54:14 884

原创 昇思25天学习打卡营第18天|基于MobileNetv2的垃圾分类

MobileNet网络是由Google团队于2017年提出的专注于移动端、嵌入式或IoT设备的轻量级CNN网络,相比于传统的卷积神经网络,MobileNet网络使用深度可分离卷积(Depthwise Separable Convolution)的思想在准确率小幅度降低的前提下,大大减小了模型参数与运算量。并引入宽度系数 α和分辨率系数 β使模型满足不同应用场景的需求。

2024-07-12 06:49:28 513

原创 昇思25天学习打卡营第17天|K近邻算法实现红酒聚类

KNN算法的实现依赖于样本之间的距离,其中最常用的距离函数就是欧氏距离(欧几里得距离)。RnRn空间中的两点xxx和yyydxy∑i1nxi−yi2dxyi1∑n​xi​−yi​2​需要特别注意的是,使用欧氏距离时,应将特征向量的每个分量归一化,以减少因为特征值的尺度范围不同所带来的干扰,否则数值小的特征分量会被数值大的特征分量淹没。其它的距离计算方式还有Mahalanobis距离、Bhattacharyya距离等。

2024-07-11 06:22:20 920

原创 昇思25天学习打卡营第16天|基于 MindSpore 实现 BERT 对话情绪识别

BERT全称是来自变换器的双向编码器表征量(Bidirectional Encoder Representations from Transformers),它是Google于2018年末开发并发布的一种新型语言模型。与BERT模型相似的预训练语言模型例如问答、命名实体识别、自然语言推理、文本分类等在许多自然语言处理任务中发挥着重要作用。模型是基于Transformer中的Encoder并加上双向的结构,因此一定要熟练掌握Transformer的Encoder的结构。

2024-07-09 23:40:53 606

原创 昇思25天学习打卡营第15天|Vision Transformer图像分类

近些年,随着基于自注意(Self-Attention)结构的模型的发展,特别是Transformer模型的提出,极大地促进了自然语言处理模型的发展。由于Transformers的计算效率和可扩展性,它已经能够训练具有超过100B参数的空前规模的模型。ViT则是自然语言处理和计算机视觉两个领域的融合结晶。在不依赖卷积操作的情况下,依然可以在图像分类任务上达到很好的效果。

2024-07-09 03:07:47 930

原创 昇思25天学习打卡营第14天|SSD目标检测

SSD,全称Single Shot MultiBox Detector,是Wei Liu在ECCV 2016上提出的一种目标检测算法。使用Nvidia Titan X在VOC 2007测试集上,SSD对于输入尺寸300x300的网络,达到74.3%mAP(mean Average Precision)以及59FPS;对于512x512的网络,达到了76.9%mAP ,超越当时最强的Faster RCNN(73.2%mAP)。具体可参考论文[1]。

2024-07-08 05:59:07 799

原创 昇思25天学习打卡营第13天|FCN图像语义分割

FCN主要用于图像分割领域,是一种端到端的分割方法,是深度学习应用在图像语义分割的开山之作。通过进行像素级的预测直接得出与原图大小相等的label map。因FCN丢弃全连接层替换为全卷积层,网络所有层均为卷积层,故称为全卷积网络。全卷积神经网络主要使用以下三种技术:卷积化(Convolutional)使用VGG-16作为FCN的backbone。VGG-16的输入为224*224的RGB图像,输出为1000个预测值。VGG-16只能接受固定大小的输入,丢弃了空间坐标,产生非空间输出。

2024-07-07 08:55:23 748

原创 昇思25天学习打卡营第12天|ShuffleNet图像分类

ShuffleNetV1是旷视科技提出的一种计算高效的CNN模型,和MobileNet, SqueezeNet等一样主要应用在移动端,所以模型的设计目标就是利用有限的计算资源来达到最好的模型精度。ShuffleNetV1的设计核心是引入了两种操作:Pointwise Group Convolution和Channel Shuffle,这在保持精度的同时大大降低了模型的计算量。因此,ShuffleNetV1和MobileNet类似,都是通过设计更高效的网络结构来实现模型的压缩和加速。

2024-07-06 08:29:25 575

原创 昇思25天学习打卡营第11天|ResNet50迁移学习

在实际应用场景中,由于训练数据集不足,所以很少有人会从头开始训练整个网络。普遍的做法是,在一个非常大的基础数据集上训练得到一个预训练模型,然后使用该模型来初始化网络的权重参数或作为固定特征提取器应用于特定的任务中。本章将使用迁移学习的方法对ImageNet数据集中的狼和狗图像进行分类。迁移学习详细内容见。

2024-07-05 08:23:23 395

原创 昇思25天学习打卡营第10天|ResNet50图像分类

ResNet50网络是2015年由微软实验室的何恺明提出,获得ILSVRC2015图像分类竞赛第一名。在ResNet网络提出之前,传统的卷积神经网络都是将一系列的卷积层和池化层堆叠得到的,但当网络堆叠到一定深度时,就会出现退化问题。下图是在CIFAR-10数据集上使用56层网络与20层网络训练误差和测试误差图,由图中数据可以看出,56层网络比20层网络训练误差和测试误差更大,随着网络的加深,其误差并没有如预想的一样减小。

2024-07-04 08:53:24 502

原创 昇思25天学习打卡营第9天|使用静态图加速

AI编译框架分为两种运行模式,分别是动态图模式以及静态图模式。MindSpore默认情况下是以动态图模式运行,但也支持手工切换为静态图模式。

2024-07-03 00:21:28 416

原创 昇思25天学习打卡营第8天|保存与加载

在训练模型的过程中,我们通常需要保存模型的中间结果和最终结果,用于微调以及后续的模型推理部署。

2024-07-02 00:41:04 560

原创 昇思25天学习打卡营第7天|模型训练

从网络构建中加载代码,构建一个神经网络模型。nn.ReLU(),nn.ReLU(),超参(Hyperparameters)是可以调整的参数,可以控制模型训练优化的过程,不同的超参数值可能会影响模型训练和收敛速度。wt1wt−η1n∑x∈B∇lxwtwt1​wt​−ηn1​x∈B∑​∇lxwt​公式中,nnn是批量大小(batch size),ηηη是学习率(learning rate)。另外,wtw_{t}w。

2024-07-01 05:52:54 867

原创 昇思25天学习打卡营第6天|函数式自动微分

神经网络的训练主要使用反向传播算法,模型预测值(logits)与正确标签(label)送入损失函数(loss function)获得loss,然后进行反向传播计算,求得梯度(gradients),最终更新至模型参数(parameters)。通常我们会将函数的loss设置为函数的第一个输出,其他的输出即为辅助数据。(只计算第一个返回项的梯度,可以时张量、元组或列表,如果是元组或列表就计算其包含的所有元素的梯度)通常情况下,求导时会求loss对参数的导数,因此函数的输出只有loss一项。

2024-06-29 12:38:10 597

原创 昇思25天学习打卡营第5天|网络构建

神经网络模型是由神经网络层和Tensor操作构成的,提供了常见神经网络层的实现,在MindSpore中,Cell类是构建所有网络的基类,也是网络的基本单元。一个神经网络模型表示为一个Cell,它由不同的子Cell构成。使用这样的嵌套结构,可以简单地使用面向对象编程的思维,对神经网络结构进行构建和管理。

2024-06-26 13:47:38 577

原创 昇思25天学习打卡营第4天|数据变换 Transforms

MindSpore提供不同种类的数据变换(Transforms),配合数据处理Pipeline来实现数据预处理。

2024-06-26 13:00:27 639

原创 昇思25天学习打卡营第3天|数据集Dataset

模块提供了一些常用的公开数据集和标准格式数据集的加载API。对于MindSpore暂不支持直接加载的数据集,可以构造自定义数据加载类或自定义数据集生成函数的方式来生成数据集,然后通过接口实现自定义方式的数据集加载。支持通过可随机访问数据集对象、可迭代数据集对象和生成器(generator)构造自定义数据集。

2024-06-25 13:43:06 1013

原创 昇思25天学习打卡营第2天|张量Tensor

稀疏张量是一种特殊张量,其中绝大部分元素的值为零。在某些应用场景中(比如推荐系统、分子动力学、图神经网络等),数据的特征是稀疏的,若使用普通张量表征这些数据会引入大量不必要的计算、存储和通讯开销。这时就可以使用稀疏张量来表征这些数据。MindSpore现在已经支持最常用的CSR和COO两种稀疏数据格式。

2024-06-24 17:46:10 719

原创 昇思25天学习打卡营第1天|快速入门

本文主要记录了学习使用昇思框架训练模型的入门操作,并与pytorch进行了简单的比较

2024-06-24 12:57:20 662

原创 Ubuntu上Qt5+OpenCV配置

sudo apt install qt5-defult qt5creator1、在编译 OpenCV 时,勾选BUILD _opencv_world项2、创建opencv.pri文件,内容如下:INCLUDEPATH += /usr/local/includeLIBS += -L/usr/local/lib/ \ -lopencv_world3、创建 Qt 项目,在*.pro文件的最后添加include(PATH/opencv.pri)或在*.pro的最后添加如下代码:

2022-02-23 08:16:14 2033

原创 cmake快速入门——从CMakeLists.txt开始

包含头文件目录主要有两种方式,全局路径包含和目标指向的路径包含include_directories():全局路径包含target_include_directories():目标指向的路径包含PUBLIC:当前库包含调用库的目标也包含该目录PRIVATE:仅当前库包含该目录,调用库的目标不包含该目录INTERFACE:当前库不包含该目录,仅调用库的目标包含该目录add_library():构建库STATIC:静态库,生成的可执行文件不依赖库,可以独立运行,方便发布,;但占据空间,编译较

2022-01-18 00:14:21 399

原创 Linux操作系统基础

常用命令速览Shell命令的分类shell命令可分为内部命令和外部命令内部命令:由shell实现,具有较高的执行效率,运行于当前进程外部命令:储存于文件系统中的可执行二进制映像文件type查看命令是否为内部命令file查看外部命令的相关信息联机帮助man查询命令的操作文档info获得命令的相关信息通过--help选项获取命令相关信息文件与命令操作pwd显示当前目录cd切换工作目录ls显示目录内容mkdir创建目录touch创建文件rmdir删除目录rm删除文件或目录cp

2022-01-16 15:51:16 322

原创 ESP8266/ESP32上使用MicroPython快速初始化配置

2022-01-11 02:14:39 1333

原创 Raspberry Pi OS学习笔记

树莓派操作系统浅析一、使用APT命令APT是Advantaged packaging Tool的缩写,负责软件的管理、安装、更新和卸载。这些软件的来源保存在/etc/apt/sources.list文件中,我们可以对其中的内容进行修改来更换软件来源。在换源过后,我们首先要使用apt update,来获取更新当前软件源中包含的软件列表,执行完该命令后系统会反馈目前有多少软件需要更新sudo apt update接下来我们就要用apt upgrade命令来更新这些软件sudo apt full-u

2022-01-09 20:53:27 651

原创 Linux安装OpenCV(以树莓派为例)

1. 通过git命令对github上OpenCV源代码仓库进行克隆git clone https://github.com/opencv/opencv.git source2. 安装相关的依赖库sudo apt update sudo apt install cmake build-essential libgtk2.0-dev pkg-config -y3. 使用cmake和make对OpenCV源文件进行编译git -C source checkout opencv版本mkdir

2022-01-08 20:26:20 525

原创 树莓派无屏初始化配置

详细内容可参考树莓派官方网站https://www.raspberrypi.com/documentation/computers/1、下载树莓派系统镜像,官网下载速度比较慢,可以去 清华镜像或 阿里镜像 等国内镜像站下载。2、使用 winRAR 等解压用工具对镜像压缩包进行解压,再使用镜像烧录工具把镜像烧录到SD卡上,这里我用的是 rufus 使用起来比较简单Tips:Linux系统使用df命令查看需要烧录的硬盘状态,使用unmount命令对要烧录硬盘进行卸载,使用dd命令对硬盘进行烧录.

2022-01-08 20:06:16 942

原创 Git Server 学习笔记

git常见命令速查列表:git init :初始化git init --bare文档库名称.git :创建纯文档库(包含文件即working tree)gitk :图形查看模式git status :显示当前索引状态git commit :执行索引,将文件存储到仓库git commit --amend :修改上一次提交的操作信息git config -l :显示当前git的设置值git config 无 或 --global 或 --system 设置项(如user.aut

2022-01-08 19:51:38 206

一分钟延时重启.bat

一分钟延时重启.bat

2022-03-03

Android OpenCV.zip

Android OpenCV.zip

2022-03-03

solidworks 2018入门精品课.rar

solidworks 2018入门精品课.rar

2022-03-03

advancedipscanner_chs_3987.com.rar

windows系统下查看同一局域网ip

2022-03-03

C++面向对象编程课件

对于C/C++初学者有点帮助

2022-03-03

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除