自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

无间行者

丈量这尘世,改变那永恒

  • 博客(176)
  • 资源 (1)
  • 收藏
  • 关注

原创 指令集错误:A fatal error ... by the Java ... Environment:SIGILL (0x4) at pc=0x00007ff349bb3a04, pid=1, ti

通过上述步骤,您可以确认您的 CPU 是否支持所需的指令集,从而帮助您解决与 OpenBLAS 和 Java 应用程序相关的崩溃问题。指令数量: SSE3 增加 13 条指令,而 SSSE3 增加 16 条指令。功能焦点: SSE3 主要优化浮点运算,而 SSSE3 增强了对整数处理的支持。推出时间: SSE3 较早,而 SSSE3 是对 SSE3 的补充和扩展。

2024-08-27 10:30:50 980

原创 《昇思25天学习打卡营第25天 | 基于MindSpore的GPT2文本摘要》

本次实验使用的是nlpcc2017摘要数据,内容为新闻正文及其摘要,总计50000个样本。因GPT2无中文的tokenizer,我们使用BertTokenizer替代。数据处理,将向量数据变为中文数据。

2024-07-30 08:45:35 264

原创 《昇思25天学习打卡营第24天 | 基于MindSpore的红酒分类实验》

K近邻算法(K-Nearest-Neighbor, KNN)是一种用于分类和回归的非参数统计方法,最初由 Cover和Hart于1968年提出(Cover等人,1967),是机器学习最基础的算法之一。它正是基于以上思想:要确定一个样本的类别,可以计算它与所有训练样本的距离,然后找出和该样本最接近的k个样本,统计出这些样本的类别并进行投票,票数最多的那个类就是分类的结果。KNN的三个基本要素:K值,一个样本的分类是由K个邻居的“多数表决”确定的。K值越小,容易受噪声影响,反之,会使类别之间的界限变得模糊。

2024-07-25 19:18:09 618

原创 《昇思25天学习打卡营第23天 | 基于MobileNetv2的垃圾分类》

MobileNet网络是由Google团队于2017年提出的专注于移动端、嵌入式或IoT设备的轻量级CNN网络,相比于传统的卷积神经网络,MobileNet网络使用深度可分离卷积(Depthwise Separable Convolution)的思想在准确率小幅度降低的前提下,大大减小了模型参数与运算量。并引入宽度系数 α和分辨率系数 β使模型满足不同应用场景的需求。

2024-07-23 14:44:57 966

原创 使用scikit-learn进行机器学习:基础教程

本文介绍了如何使用scikit-learn进行基本的机器学习任务。从数据预处理、模型训练到模型评估,每一步都有详细的代码示例。通过这个简单的例子,希望你能对使用scikit-learn进行机器学习有一个初步的了解,并能在实际项目中加以应用。如果你对机器学习感兴趣,可以进一步学习scikit-learn的高级功能,如交叉验证、超参数调优和更多的模型选择。scikit-learn提供了丰富的文档和示例,非常适合学习和使用。

2024-07-17 21:23:56 564

原创 《昇思25天学习打卡营第22天 | 基于 MindSpore 实现 BERT 对话情绪识别》

BERT全称是来自变换器的双向编码器表征量(Bidirectional Encoder Representations from Transformers),它是Google于2018年末开发并发布的一种新型语言模型。与BERT模型相似的预训练语言模型例如问答、命名实体识别、自然语言推理、文本分类等在许多自然语言处理任务中发挥着重要作用。模型是基于Transformer中的Encoder并加上双向的结构,因此一定要熟练掌握Transformer的Encoder的结构。

2024-07-17 21:19:59 1022

原创 《昇思25天学习打卡营第20天 | 基于MindNLP+MusicGen生成自己的个性化音乐》

与传统方法不同,MusicGen采用单个stage的Transformer LM结合高效的token交织模式,取消了多层级的多个模型结构,例如分层或上采样,这使得MusicGen能够生成单声道和立体声的高质量音乐样本,同时提供更好的生成输出控制。请注意,传递给 generate 方法的任何参数都将取代生成配置中的参数,因此在调用 generate 中设置 do_sample=False 将取代生成配置中 model.generation_config.do_sample 的设置。及其权重作为音频压缩模型。

2024-07-16 23:37:15 936

原创 《昇思25天学习打卡营第21天 | Diffusion扩散模型》

《昇思25天学习打卡营第19天 | Diffusion扩散模型》目录《昇思25天学习打卡营第19天 | Diffusion扩散模型》模型简介什么是Diffusion Model?扩散模型实现原理Diffusion 前向过程Diffusion 逆向过程U-Net神经网络预测噪声构建Diffusion模型位置向量ResNet/ConvNeXT块Attention模块组归一化条件U-Net正向扩散数据准备与处理采样训练过程推理过程(从模型中采样)总结参考本文基于Hugging Face:The Annotat

2024-07-16 08:51:27 1080

原创 《昇思25天学习打卡营第19天 | Pix2Pix实现图像转换》

Pix2Pix是基于条件生成对抗网络(cGAN, Condition Generative Adversarial Networks )实现的一种深度学习图像转换模型,该模型是由Phillip Isola等作者在2017年CVPR上提出的,可以实现语义/标签到真实图片、灰度图到彩色图、航空图到地图、白天到黑夜、线稿图到实物图的转换。生成器和判别器。传统上,尽管此类任务的目标都是相同的从像素预测像素,但每项都是用单独的专用机器来处理的。

2024-07-14 23:44:46 864

原创 《昇思25天学习打卡营第18天 | GAN图像生成》

生成式对抗网络(Generative Adversarial Networks,GAN)是一种生成式机器学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。最初,GAN由Ian J. Goodfellow于2014年发明,并在论文生成器的任务是生成看起来像训练图像的“假”图像;判别器需要判断从生成器输出的图像是真实的训练图像还是虚假的图像。GAN通过设计生成模型和判别模型这两个模块,使其互相博弈学习产生了相当好的输出。GAN模型的核心在于提出了通过对抗过程来估计生成模型这一全新框架。

2024-07-13 23:02:15 942

原创 《昇思25天学习打卡营第17天 | CycleGAN图像风格迁移互换》

CycleGAN(Cycle Generative Adversarial Network) 即循环对抗生成网络,来自论文。该模型实现了一种在没有配对示例的情况下学习将图像从源域 X 转换到目标域 Y 的方法。该模型一个重要应用领域是域迁移(Domain Adaptation),可以通俗地理解为图像风格迁移。

2024-07-13 01:42:25 922

原创 《昇思25天学习打卡营第16天 | DCGAN生成漫画头像》

在下面的教程中,我们将通过示例代码说明DCGAN网络如何设置网络、优化器、如何计算损失函数以及如何初始化模型权重。在本教程中,使用的共有70,171张动漫头像图片,图片大小均为96*96。

2024-07-11 21:42:26 916

原创 《昇思25天学习打卡营第15天 | ResNet50迁移学习》

开始训练模型,与没有预训练模型相比,将节约一大半时间,因为此时可以不用计算部分梯度。使用固定特征得到的best.ckpt文件对对验证集的狼和狗图像数据进行预测。,数据集中的图像来自于ImageNet,每个分类有大约120张训练图像与30张验证图像。使用固定特征进行训练的时候,需要冻结除最后一层之外的所有网络层。对获取到的图像及标签数据进行可视化,标题为图像对应的label名称。接口下载数据集,并将下载后的数据集自动解压到当前目录下。接口中加载的训练数据集返回值为字典,用户可通过。接口创建数据迭代器,使用。

2024-07-11 00:05:06 436

原创 《昇思25天学习打卡营第14天 | SSD目标检测》

SSD,全称Single Shot MultiBox Detector,是Wei Liu在ECCV 2016上提出的一种目标检测算法。使用Nvidia Titan X在VOC 2007测试集上,SSD对于输入尺寸300x300的网络,达到74.3%mAP(mean Average Precision)以及59FPS;对于512x512的网络,达到了76.9%mAP ,超越当时最强的Faster RCNN(73.2%mAP)。具体可参考论文[1]。

2024-07-09 23:36:29 1359

原创 《昇思25天学习打卡营第13天 | Vision Transformer图像分类》

近些年,随着基于自注意(Self-Attention)结构的模型的发展,特别是Transformer模型的提出,极大地促进了自然语言处理模型的发展。由于Transformers的计算效率和可扩展性,它已经能够训练具有超过100B参数的空前规模的模型。ViT则是自然语言处理和计算机视觉两个领域的融合结晶。在不依赖卷积操作的情况下,依然可以在图像分类任务上达到很好的效果。

2024-07-09 08:57:01 461

原创 《昇思25天学习打卡营第12天 | ShuffleNet图像分类》

ShuffleNetV1是旷视科技提出的一种计算高效的CNN模型,和MobileNet, SqueezeNet等一样主要应用在移动端,所以模型的设计目标就是利用有限的计算资源来达到最好的模型精度。ShuffleNetV1的设计核心是引入了两种操作:Pointwise Group Convolution和Channel Shuffle,这在保持精度的同时大大降低了模型的计算量。因此,ShuffleNetV1和MobileNet类似,都是通过设计更高效的网络结构来实现模型的压缩和加速。

2024-07-07 23:56:19 776

原创 《昇思25天学习打卡营第11天 | ResNet50图像分类》

ResNet50网络是2015年由微软实验室的何恺明提出,获得ILSVRC2015图像分类竞赛第一名。在ResNet网络提出之前,传统的卷积神经网络都是将一系列的卷积层和池化层堆叠得到的,但当网络堆叠到一定深度时,就会出现退化问题。下图是在CIFAR-10数据集上使用56层网络与20层网络训练误差和测试误差图,由图中数据可以看出,56层网络比20层网络训练误差和测试误差更大,随着网络的加深,其误差并没有如预想的一样减小。

2024-07-06 23:48:15 681

原创 《昇思25天学习打卡营第10天 | 图像语义分割》

FCN主要用于图像分割领域,是一种端到端的分割方法,是深度学习应用在图像语义分割的开山之作。通过进行像素级的预测直接得出与原图大小相等的label map。因FCN丢弃全连接层替换为全卷积层,网络所有层均为卷积层,故称为全卷积网络。全卷积神经网络主要使用以下三种技术:卷积化(Convolutional)使用VGG-16作为FCN的backbone。VGG-16的输入为224*224的RGB图像,输出为1000个预测值。VGG-16只能接受固定大小的输入,丢弃了空间坐标,产生非空间输出。

2024-07-06 00:37:43 754

原创 《昇思25天学习打卡营第9天 | 使用静态图加速》

动态图的特点是计算图的构建和计算同时发生(Define by run),其符合Python的解释执行方式,在计算图中定义一个Tensor时,其值就已经被计算且确定,因此在调试模型时较为方便,能够实时得到中间结果的值,但由于所有节点都需要被保存,导致难以对整个计算图进行优化。在MindSpore中,静态图模式又被称为Graph模式,在Graph模式下,基于图优化、计算图整图下沉等技术,编译器可以针对图进行全局的优化,获得较好的性能,因此比较适合网络固定且需要高性能的场景。有关静态图模式的运行原理,可以参考。

2024-07-04 23:53:51 993

原创 《昇思25天学习打卡营第8天 | 保存与加载》

在训练网络模型的过程中,实际上我们希望保存中间和最后的结果,用于微调(fine-tune)和后续的模型推理与部署,本章节我们将学习如何保存与加载模型。

2024-07-04 00:21:49 391

原创 Go语言学习:每日一练3

当结构体中存在匿名字段的时候,结构体可以直接访问其属性和方法,看起来像继承了一样。go没有提供继承的机制,但是又类似于继承的处理方式。接口类型的变量可以持有任何实现了这些方法的值。接收者的类型定义和方法的声明必须在一个包里。类型断言提供了一种访问接口底层具体值的方法。」,努力把实践过的解决方案分享给大家。👑 天下英雄出我辈,一入江湖岁月催。方法是一类有接收者参数的函数。接口类型的定义为一组方法签名。

2024-07-02 23:58:02 526

原创 《昇思25天学习打卡营第7天 | 模型训练》

从网络构建中加载代码,构建一个神经网络模型。nn.ReLU(),nn.ReLU(),超参(Hyperparameters)是可以调整的参数,可以控制模型训练优化的过程,不同的超参数值可能会影响模型训练和收敛速度。wt1wt−η1n∑x∈B∇lxwtwt1​wt​−ηn1​x∈B∑​∇lxwt​公式中,nnn是批量大小(batch size),ηηη是学习率(learning rate)。另外,wtw_{t}w。

2024-07-02 23:57:43 1586

原创 《昇思25天学习打卡营第6天 | 函数式自动微分》

神经网络的训练主要使用反向传播算法,模型预测值(logits)与正确标签(label)送入损失函数(loss function)获得loss,然后进行反向传播计算,求得梯度(gradients),最终更新至模型参数(parameters)。自动微分能够计算可导函数在某点处的导数值,是反向传播算法的一般化。自动微分主要解决的问题是将一个复杂的数学运算分解为一系列简单的基本运算,该功能对用户屏蔽了大量的求导细节和过程,大大降低了框架的使用门槛。获得微分函数是一种函数变换,即输入为函数,输出也为函数。

2024-06-30 23:56:10 901

原创 《昇思25天学习打卡营第5天 | 网络构建》

神经网络模型是一种模仿生物神经系统结构和功能的计算模型,它由大量的节点(或称为“神经元”)组成,这些节点通过连接(或称为“权重”)相互作用,以处理信息。神经网络模型是机器学习和深度学习的核心组成部分,广泛应用于图像识别、语音识别、自然语言处理、游戏和决策系统等领域。1.输入层(Input Layer):输入层接收原始数据或特征,并将其传递给网络。每个输入节点对应数据的一个特征。2.隐藏层(Hidden Layers):隐藏层位于输入层和输出层之间,可以有一个或多个。

2024-06-30 00:41:41 655

原创 《昇思25天学习打卡营第4天 | 数据变换》

Lambda Transforms可以加载任意定义的Lambda函数,提供足够的灵活度。通常情况下,直接加载的原始数据并不能直接送入神经网络进行训练,此时我们需要对其进行数据预处理。提供了面向图像、文本、音频等不同数据类型的Transforms,同时也支持使用Lambda函数。这里我们先使用numpy随机生成一个像素值在[0, 255]的图像,将其像素值进行缩放。为了更直观地呈现Transform前后的数据对比,我们使用Transforms的。操作将此分词器应用到输入的文本中,对其进行分词。

2024-06-27 23:46:57 1169

原创 Go语言学习:每日一练2

类型*T是指向T类型值的指针,其默认值为nil。结构体的零值并非是nil,而是一个其内部各个字段取各自零值的实例。数组的零值类似于结构体,会根据其类型设置分别设置每个元素的零值。&操作符会生成一个指向其操作对象的指针。」,努力把实践过的解决方案分享给大家。👑 天下英雄出我辈,一入江湖岁月催。*操作符表示指针指向的底层值。

2024-06-27 22:50:18 573

原创 Go语言学习:每日一练1

/a,b会报错,函数内定义的变量必须要使用//多返回值//权限控制--使用大写字母开头。

2024-06-26 21:16:26 649

原创 《昇思25天学习打卡营第3天 | 数据集 Dataset》

数据集(Dataset)在深度学习和机器学习中指的是一组数据的集合,这些数据通常用于训练、验证和测试模型。数据集的质量和多样性对于训练出高性能的模型至关重要。一个典型的数据集通常包含以下几个方面:数据结构:数据集可以是结构化的,如表格数据,也可以是非结构化的,如文本、图像或音频。标签:在监督学习中,数据集中的每个样本通常都有一个或多个与之关联的标签(label),这些标签用于训练模型进行预测或分类。

2024-06-26 21:06:31 1437

原创 《昇思25天学习打卡营第2天 | 张量 Tensor》

张量(Tensor)是一个多维数组或矩阵的概念,它是向量和矩阵的推广。在数学和物理学中,张量是一个具有多个分量的量,这些分量之间的关系可以通过一组坐标变换来描述。在计算机科学和工程领域,特别是在机器学习和深度学习中,张量通常指的是多维数组,它是数据的基本表示形式。在 MindSpore 网络运算中张量(Tensor)是基本的数据结构。张量是一种特殊的数据结构,与数组和矩阵非常相似。

2024-06-25 23:29:34 740

原创 Python3 学习笔记——基本知识入门 | 菜鸟教程

基础语法标识符第一个字符必须是字母表中字母或下划线 _ 。标识符的其他的部分由字母、数字和下划线组成。标识符对大小写敏感。在 Python 3 中,可以用中文作为变量名,非 ASCII 标识符也是允许的了。python保留字保留字即关键字,我们不能把它们用作任何标识符名称。Python 的标准库提供了一个 keyword 模块,可以输出当前版本的所有关键字:import keywordprint(keyword.kwlist)# ['False', 'None', 'True', 'a

2024-06-25 23:28:16 944 2

原创 利用 Docker 简化 Nacos 部署:快速搭建 Nacos 服务

通过 Docker,我们不仅简化了 Nacos 的部署过程,还确保了环境的一致性和可移植性。现在,你可以开始配置和管理你的微服务了。希望这篇博客能帮助你快速搭建 Nacos 服务,并享受微服务架构带来的便利。

2024-06-24 19:45:24 915

原创 《昇思25天学习打卡营第1天 | 快速入门》

昇思MindSpore是一个全场景深度学习框架,旨在实现易开发、高效执行、全场景统一部署三大目标。其中,易开发表现为API友好、调试难度低;高效执行包括计算效率、数据预处理效率和分布式训练效率;全场景则指框架同时支持云、边缘以及端侧场景。ModelZoo(模型库):ModelZoo提供可用的深度学习算法网络,也欢迎更多开发者贡献新的网络(ModelZoo地址MindSpore Extend(扩展库)

2024-06-24 19:44:35 829

原创 JetBrains IDEA 新旧UI切换

IntelliJ IDEA 的老 UI 以其经典的布局和稳定的性能,成为了许多开发者的首选。而新 UI 则在此基础上进行了全面的改进,带来了更加现代化、响应式和高效的用户体验。无论是新用户还是老用户,都可以通过了解和适应这些变化,提升开发效率和使用体验。

2024-06-20 19:17:13 5412

原创 IDEA 运行 ‘xxx‘ 时出错. 命令行过长. 通过 JAR 清单或通过类路径文件缩短命令行,然后重新运行.

如果你是通过命令行运行一个JAR文件,你可以在JAR的清单文件(MANIFEST.MF)中指定主类,而不是在命令行中指定。Java虚拟机(JVM)对命令行参数的长度有限制,当参数过长时,就会抛出“命令行过长”的错误。如果你使用Maven或Gradle等构建工具,它们通常会处理依赖管理和打包,这样可以减少你需要在命令行中指定的参数。如果你使用的是这些版本,可以考虑将你的应用模块化,这样可以减少类路径的长度。如果你的应用是基于Web的,可以考虑将依赖的库打包到WAR文件中,这样可以减少类路径的长度。

2024-06-20 19:16:32 2110 1

原创 Maven 配置学习:存在两个本地私服如何配置

Maven 配置学习:存在两个本地私服如何配置

2024-06-18 20:00:25 1198 1

原创 ssh-add id_rsa_gitlab1 Error connecting to agent: No such file or directory

出现 “Error connecting to agent: No such file or directory” 错误,通常是因为 SSH 代理未启动或未正确配置。在 Windows 上,由于环境的不同,可能需要一些额外的步骤来确保 SSH 代理正常工作。

2024-06-18 19:58:28 1152

原创 IntelliJ IDEA 使用 Maven 时不加载本地私服的最新版本快照(snapshot)JAR 包

通过以上步骤,应该可以排查并解决 IDEA 使用 Maven 时不加载本地私服临时版本 JAR 包的问题。

2024-06-17 10:44:29 1970 1

原创 MySQL 数据库 Navicat Premium 16.01 安装教程

MySQL数据库管理用Navicat更加方便,可视化效果更好,今天给大家带来 Navicat Premium 16.1最新安装,亲测有效。

2024-06-17 10:14:38 496

原创 [-].\Navicat-Cracker NavicatCrackerDlg.cpp:332 ->All patch solutions are suppressed. Patch abort!HIN

今天要使用华为云GaussDB (for mysql)国产化数据库,要求用Navicat Premium 16版本连接,找了半天没找到可以激活得工具,然后找到了一个激活工具发现用不了,报了下面这个错误,发现原来是工具不支持现在官网得新版本了,需要旧版本安装。

2024-06-01 09:03:13 716

原创 Navicat Premium 16.01 安装教程

数据库管理用Navicat更加方便,可视化效果更好,今天给大家带来 Navicat Premium 16.1最新安装,亲测有效。

2024-06-01 08:00:51 898

lombok-plugin-0.29-2018.2.zip

IDEA lombok-plugin 插件,版本适配为 IDEA 2018.02版本,有在IDEA中下载失败的同学,可以来这里下载使用。IDEA lombok-plugin 插件安装教程:https://blog.csdn.net/qq_35606010/article/details/105361642

2020-06-05

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除