無间行者
码龄8年
关注
提问 私信
  • 博客:632,368
    社区:222
    问答:340
    动态:62
    视频:2
    632,994
    总访问量
  • 176
    原创
  • 15,034
    排名
  • 4,821
    粉丝
  • 90
    铁粉
  • 学习成就

个人简介:没有第一的技术,只有无敌的人,找到适合自已的路,勇往直前,开创出最适合自己的道,才是无敌 ------------ 岁月如刀斩天骄,花有重开日,人无在少年,不知道还能守护你多少年,勇往直前,道心坚定 ------------ 披荆斩棘、戮力前行 ------------

IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:河南省
  • 加入CSDN时间: 2016-07-14
博客简介:

无间行者

博客描述:
丈量这尘世,改变那永恒
查看详细资料
  • 原力等级
    成就
    当前等级
    7
    当前总分
    3,177
    当月
    56
个人成就
  • 后端领域新星创作者
  • 获得1,338次点赞
  • 内容获得127次评论
  • 获得1,568次收藏
  • 代码片获得15,213次分享
创作历程
  • 62篇
    2024年
  • 2篇
    2023年
  • 2篇
    2022年
  • 28篇
    2021年
  • 48篇
    2020年
  • 26篇
    2019年
  • 8篇
    2018年
成就勋章
TA的专栏
  • 深度学习
    26篇
  • git
    1篇
  • Python
    2篇
  • Open CV
    8篇
  • Go语言
    8篇
  • 随笔漫谈
    3篇
  • Spring Boot
    7篇
  • docker
    12篇
  • java
    1篇
  • java异常
    12篇
  • java算法
    2篇
  • java基础
    14篇
  • Oracle
    13篇
  • Linux
    18篇
  • Orange Pi
    1篇
  • Raspberry Pi
    10篇
  • MySQL
    15篇
  • IntelliJ IDEA
    10篇
  • Spring Cloud
  • 求职面试
  • JVM面试题
  • LeetCode题目
  • java面试
    8篇
  • Spring
    2篇
  • GitHub
    3篇
  • Windows
    5篇
  • maven
    4篇
  • 漏洞修复
    2篇
  • 实用工具
    2篇
  • HTML+CSS+JS+JQquery
    1篇
  • Nginx
    3篇
  • Shiro
    1篇
  • webservice
    1篇
  • gson
    1篇
TA的推广
兴趣领域 设置
  • Java
    java
  • 大数据
    mysqlredis
  • 后端
    spring架构
  • 人工智能
    计算机视觉
  • 搜索
    elasticsearch
  • 服务器
    linux
创作活动更多

HarmonyOS开发者社区有奖征文来啦!

用文字记录下您与HarmonyOS的故事。参与活动,还有机会赢奖,快来加入我们吧!

0人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

指令集错误:A fatal error ... by the Java ... Environment:SIGILL (0x4) at pc=0x00007ff349bb3a04, pid=1, ti

通过上述步骤,您可以确认您的 CPU 是否支持所需的指令集,从而帮助您解决与 OpenBLAS 和 Java 应用程序相关的崩溃问题。指令数量: SSE3 增加 13 条指令,而 SSSE3 增加 16 条指令。功能焦点: SSE3 主要优化浮点运算,而 SSSE3 增强了对整数处理的支持。推出时间: SSE3 较早,而 SSSE3 是对 SSE3 的补充和扩展。
原创
发布博客 2024.08.27 ·
1095 阅读 ·
19 点赞 ·
0 评论 ·
24 收藏

《昇思25天学习打卡营第25天 | 基于MindSpore的GPT2文本摘要》

本次实验使用的是nlpcc2017摘要数据,内容为新闻正文及其摘要,总计50000个样本。因GPT2无中文的tokenizer,我们使用BertTokenizer替代。数据处理,将向量数据变为中文数据。
原创
发布博客 2024.07.30 ·
311 阅读 ·
3 点赞 ·
0 评论 ·
6 收藏

《昇思25天学习打卡营第24天 | 基于MindSpore的红酒分类实验》

K近邻算法(K-Nearest-Neighbor, KNN)是一种用于分类和回归的非参数统计方法,最初由 Cover和Hart于1968年提出(Cover等人,1967),是机器学习最基础的算法之一。它正是基于以上思想:要确定一个样本的类别,可以计算它与所有训练样本的距离,然后找出和该样本最接近的k个样本,统计出这些样本的类别并进行投票,票数最多的那个类就是分类的结果。KNN的三个基本要素:K值,一个样本的分类是由K个邻居的“多数表决”确定的。K值越小,容易受噪声影响,反之,会使类别之间的界限变得模糊。
原创
发布博客 2024.07.25 ·
684 阅读 ·
23 点赞 ·
0 评论 ·
16 收藏

《昇思25天学习打卡营第23天 | 基于MobileNetv2的垃圾分类》

MobileNet网络是由Google团队于2017年提出的专注于移动端、嵌入式或IoT设备的轻量级CNN网络,相比于传统的卷积神经网络,MobileNet网络使用深度可分离卷积(Depthwise Separable Convolution)的思想在准确率小幅度降低的前提下,大大减小了模型参数与运算量。并引入宽度系数 α和分辨率系数 β使模型满足不同应用场景的需求。
原创
发布博客 2024.07.23 ·
1003 阅读 ·
25 点赞 ·
0 评论 ·
24 收藏

使用scikit-learn进行机器学习:基础教程

本文介绍了如何使用scikit-learn进行基本的机器学习任务。从数据预处理、模型训练到模型评估,每一步都有详细的代码示例。通过这个简单的例子,希望你能对使用scikit-learn进行机器学习有一个初步的了解,并能在实际项目中加以应用。如果你对机器学习感兴趣,可以进一步学习scikit-learn的高级功能,如交叉验证、超参数调优和更多的模型选择。scikit-learn提供了丰富的文档和示例,非常适合学习和使用。
原创
发布博客 2024.07.17 ·
583 阅读 ·
8 点赞 ·
0 评论 ·
12 收藏

《昇思25天学习打卡营第22天 | 基于 MindSpore 实现 BERT 对话情绪识别》

BERT全称是来自变换器的双向编码器表征量(Bidirectional Encoder Representations from Transformers),它是Google于2018年末开发并发布的一种新型语言模型。与BERT模型相似的预训练语言模型例如问答、命名实体识别、自然语言推理、文本分类等在许多自然语言处理任务中发挥着重要作用。模型是基于Transformer中的Encoder并加上双向的结构,因此一定要熟练掌握Transformer的Encoder的结构。
原创
发布博客 2024.07.17 ·
1057 阅读 ·
18 点赞 ·
0 评论 ·
21 收藏

《昇思25天学习打卡营第20天 | 基于MindNLP+MusicGen生成自己的个性化音乐》

与传统方法不同,MusicGen采用单个stage的Transformer LM结合高效的token交织模式,取消了多层级的多个模型结构,例如分层或上采样,这使得MusicGen能够生成单声道和立体声的高质量音乐样本,同时提供更好的生成输出控制。请注意,传递给 generate 方法的任何参数都将取代生成配置中的参数,因此在调用 generate 中设置 do_sample=False 将取代生成配置中 model.generation_config.do_sample 的设置。及其权重作为音频压缩模型。
原创
发布博客 2024.07.16 ·
962 阅读 ·
23 点赞 ·
0 评论 ·
23 收藏

《昇思25天学习打卡营第21天 | Diffusion扩散模型》

《昇思25天学习打卡营第19天 | Diffusion扩散模型》目录《昇思25天学习打卡营第19天 | Diffusion扩散模型》模型简介什么是Diffusion Model?扩散模型实现原理Diffusion 前向过程Diffusion 逆向过程U-Net神经网络预测噪声构建Diffusion模型位置向量ResNet/ConvNeXT块Attention模块组归一化条件U-Net正向扩散数据准备与处理采样训练过程推理过程(从模型中采样)总结参考本文基于Hugging Face:The Annotat
原创
发布博客 2024.07.16 ·
1135 阅读 ·
24 点赞 ·
0 评论 ·
28 收藏

《昇思25天学习打卡营第19天 | Pix2Pix实现图像转换》

Pix2Pix是基于条件生成对抗网络(cGAN, Condition Generative Adversarial Networks )实现的一种深度学习图像转换模型,该模型是由Phillip Isola等作者在2017年CVPR上提出的,可以实现语义/标签到真实图片、灰度图到彩色图、航空图到地图、白天到黑夜、线稿图到实物图的转换。生成器和判别器。传统上,尽管此类任务的目标都是相同的从像素预测像素,但每项都是用单独的专用机器来处理的。
原创
发布博客 2024.07.14 ·
880 阅读 ·
20 点赞 ·
0 评论 ·
15 收藏

《昇思25天学习打卡营第18天 | GAN图像生成》

生成式对抗网络(Generative Adversarial Networks,GAN)是一种生成式机器学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。最初,GAN由Ian J. Goodfellow于2014年发明,并在论文生成器的任务是生成看起来像训练图像的“假”图像;判别器需要判断从生成器输出的图像是真实的训练图像还是虚假的图像。GAN通过设计生成模型和判别模型这两个模块,使其互相博弈学习产生了相当好的输出。GAN模型的核心在于提出了通过对抗过程来估计生成模型这一全新框架。
原创
发布博客 2024.07.13 ·
971 阅读 ·
34 点赞 ·
0 评论 ·
13 收藏

《昇思25天学习打卡营第17天 | CycleGAN图像风格迁移互换》

CycleGAN(Cycle Generative Adversarial Network) 即循环对抗生成网络,来自论文。该模型实现了一种在没有配对示例的情况下学习将图像从源域 X 转换到目标域 Y 的方法。该模型一个重要应用领域是域迁移(Domain Adaptation),可以通俗地理解为图像风格迁移。
原创
发布博客 2024.07.13 ·
938 阅读 ·
14 点赞 ·
0 评论 ·
8 收藏

《昇思25天学习打卡营第16天 | DCGAN生成漫画头像》

在下面的教程中,我们将通过示例代码说明DCGAN网络如何设置网络、优化器、如何计算损失函数以及如何初始化模型权重。在本教程中,使用的共有70,171张动漫头像图片,图片大小均为96*96。
原创
发布博客 2024.07.11 ·
934 阅读 ·
24 点赞 ·
0 评论 ·
18 收藏

《昇思25天学习打卡营第15天 | ResNet50迁移学习》

开始训练模型,与没有预训练模型相比,将节约一大半时间,因为此时可以不用计算部分梯度。使用固定特征得到的best.ckpt文件对对验证集的狼和狗图像数据进行预测。,数据集中的图像来自于ImageNet,每个分类有大约120张训练图像与30张验证图像。使用固定特征进行训练的时候,需要冻结除最后一层之外的所有网络层。对获取到的图像及标签数据进行可视化,标题为图像对应的label名称。接口下载数据集,并将下载后的数据集自动解压到当前目录下。接口中加载的训练数据集返回值为字典,用户可通过。接口创建数据迭代器,使用。
原创
发布博客 2024.07.11 ·
451 阅读 ·
5 点赞 ·
0 评论 ·
4 收藏

《昇思25天学习打卡营第14天 | SSD目标检测》

SSD,全称Single Shot MultiBox Detector,是Wei Liu在ECCV 2016上提出的一种目标检测算法。使用Nvidia Titan X在VOC 2007测试集上,SSD对于输入尺寸300x300的网络,达到74.3%mAP(mean Average Precision)以及59FPS;对于512x512的网络,达到了76.9%mAP ,超越当时最强的Faster RCNN(73.2%mAP)。具体可参考论文[1]。
原创
发布博客 2024.07.09 ·
1401 阅读 ·
46 点赞 ·
0 评论 ·
16 收藏

《昇思25天学习打卡营第13天 | Vision Transformer图像分类》

近些年,随着基于自注意(Self-Attention)结构的模型的发展,特别是Transformer模型的提出,极大地促进了自然语言处理模型的发展。由于Transformers的计算效率和可扩展性,它已经能够训练具有超过100B参数的空前规模的模型。ViT则是自然语言处理和计算机视觉两个领域的融合结晶。在不依赖卷积操作的情况下,依然可以在图像分类任务上达到很好的效果。
原创
发布博客 2024.07.09 ·
495 阅读 ·
6 点赞 ·
0 评论 ·
7 收藏

《昇思25天学习打卡营第12天 | ShuffleNet图像分类》

ShuffleNetV1是旷视科技提出的一种计算高效的CNN模型,和MobileNet, SqueezeNet等一样主要应用在移动端,所以模型的设计目标就是利用有限的计算资源来达到最好的模型精度。ShuffleNetV1的设计核心是引入了两种操作:Pointwise Group Convolution和Channel Shuffle,这在保持精度的同时大大降低了模型的计算量。因此,ShuffleNetV1和MobileNet类似,都是通过设计更高效的网络结构来实现模型的压缩和加速。
原创
发布博客 2024.07.07 ·
802 阅读 ·
18 点赞 ·
0 评论 ·
29 收藏

《昇思25天学习打卡营第11天 | ResNet50图像分类》

ResNet50网络是2015年由微软实验室的何恺明提出,获得ILSVRC2015图像分类竞赛第一名。在ResNet网络提出之前,传统的卷积神经网络都是将一系列的卷积层和池化层堆叠得到的,但当网络堆叠到一定深度时,就会出现退化问题。下图是在CIFAR-10数据集上使用56层网络与20层网络训练误差和测试误差图,由图中数据可以看出,56层网络比20层网络训练误差和测试误差更大,随着网络的加深,其误差并没有如预想的一样减小。
原创
发布博客 2024.07.06 ·
711 阅读 ·
25 点赞 ·
0 评论 ·
21 收藏

《昇思25天学习打卡营第10天 | 图像语义分割》

FCN主要用于图像分割领域,是一种端到端的分割方法,是深度学习应用在图像语义分割的开山之作。通过进行像素级的预测直接得出与原图大小相等的label map。因FCN丢弃全连接层替换为全卷积层,网络所有层均为卷积层,故称为全卷积网络。全卷积神经网络主要使用以下三种技术:卷积化(Convolutional)使用VGG-16作为FCN的backbone。VGG-16的输入为224*224的RGB图像,输出为1000个预测值。VGG-16只能接受固定大小的输入,丢弃了空间坐标,产生非空间输出。
原创
发布博客 2024.07.06 ·
767 阅读 ·
33 点赞 ·
0 评论 ·
15 收藏

《昇思25天学习打卡营第9天 | 使用静态图加速》

动态图的特点是计算图的构建和计算同时发生(Define by run),其符合Python的解释执行方式,在计算图中定义一个Tensor时,其值就已经被计算且确定,因此在调试模型时较为方便,能够实时得到中间结果的值,但由于所有节点都需要被保存,导致难以对整个计算图进行优化。在MindSpore中,静态图模式又被称为Graph模式,在Graph模式下,基于图优化、计算图整图下沉等技术,编译器可以针对图进行全局的优化,获得较好的性能,因此比较适合网络固定且需要高性能的场景。有关静态图模式的运行原理,可以参考。
原创
发布博客 2024.07.04 ·
1043 阅读 ·
16 点赞 ·
0 评论 ·
22 收藏

《昇思25天学习打卡营第8天 | 保存与加载》

在训练网络模型的过程中,实际上我们希望保存中间和最后的结果,用于微调(fine-tune)和后续的模型推理与部署,本章节我们将学习如何保存与加载模型。
原创
发布博客 2024.07.04 ·
433 阅读 ·
4 点赞 ·
0 评论 ·
7 收藏
加载更多