自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(217)
  • 资源 (4)
  • 收藏
  • 关注

原创 C++ 实现多线程的生产者(producer) - 消费者(consumer) 模型

本文介绍了生产者消费者的并发编程模型,并用详细的 C++ 代码实现了一个简单的生产者消费者的实例;

2024-01-27 17:24:18 2743 4

原创 [医疗 AI ] 3D TransUNet:通过 Vision Transformer 推进医学图像分割

医学图像分割在推进医疗保健系统的疾病诊断和治疗计划中起着至关重要的作用。U 形架构,俗称 U-Net,已被证明在各种医学图像分割任务中非常成功。然而,U-Net 基于卷积的操作本身限制了其有效建模远程依赖关系的能力。为了解决这些限制,研究人员转向了以其全局自我注意机制而闻名的 Transformer 作为替代架构。一个流行的网络是我们以前的 TransUNet,它利用 Transformers 的自我关注来补充 U-Net 的本地化信息与全局背景。

2024-08-23 10:56:55 819 1

原创 [Datawhale AI夏令营 2024 第四期] 从零入门大模型微调之旅的总结

[Datawhale AI夏令营 2024 第四期] 从零入门大模型微调之旅的总结

2024-08-17 23:48:42 395

原创 [书生大模型实战营][L0][Task2] Python 开发前置知识

VSCode 如何远程连接开发机器,并实现 word count 功能,统计字符串中单词的使用数量。

2024-08-16 17:16:48 215

原创 [书生大模型实战营][L0][Task1] Linux 远程连接 InternStudio

书生大模型实战营][Task1] Linux 远程连接 InterStudio。

2024-08-15 11:51:49 248

原创 LeetCode 234 - 回文链表 C++ 实现

leetcode 题目234 回文链表 C++ 实现

2024-08-13 12:07:26 275

原创 昇思 25 天学习打卡营第 25 天 | MindSpore Diffusion 扩散模型

Diffusion也是从纯噪声开始通过一个神经网络学习逐步去噪,最终得到一个实际图像。具体的 Diffusion 扩散模型的原理,可以参考:https://zhuanlan.zhihu.com/p/650394311?utm_id=0MindSpore 的 docs 中有详细的说明;PyTorch 版本地址:过程:Diffusion对于图像的处理包括以下两个过程:a. 我们选择的固定(或预定义)正向扩散过程 q,逐渐将高斯噪声添加到图像中,直到最终得到纯噪声。

2024-07-31 13:07:45 995

原创 【论文共读】【翻译】【CGAN】【Conditional Gernerative Adversarial Networks】

生成对抗网络[8]最近被引入,作为一种训练生成模型的新方法。在这项工作中,我们引入了生成对抗网络的条件版本,该网络可以通过简单地输入数据来构建,y,我们希望对生成器和判别器进行条件处理。我们表明,该模型可以生成以类标签为条件的MNIST数字。我们还说明了如何使用该模型来学习多模态模型,并提供了应用于图像标记的初步示例,其中我们演示了这种方法如何生成不属于训练标签的描述性标签。最近引入了生成对抗网络作为训练生成模型的替代框架,以规避近似许多棘手的概率计算的困难。

2024-07-31 08:30:00 559

原创 昇思 25 天学习打卡营第 24 天 | MindSpore Pix2Pix 实现图像转换

MindSpore 的 Pix2Pix 图像转换介绍Pix2Pix是基于条件生成对抗网络(cGAN, Condition Generative Adversarial Networks )实现的一种深度学习图像转换模型,该模型是由Phillip Isola等作者在2017年CVPR上提出的,可以实现语义/标签到真实图片、灰度图到彩色图、航空图到地图、白天到黑夜、线稿图到实物图的转换。Pix2Pix是将cGAN应用于有监督的图像到图像翻译的经典之作,其包括两个模型:生成器和判别器。论文。

2024-07-30 17:32:52 723

原创 昇思 25 天学习打卡营第 23 天 | MindSpore GAN 图像生成

MindSpore 的 GAN 的图像生成介绍生成式对抗网络(Generative Adversarial Networks,GAN)是一种生成式机器学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。由Ian J. Goodfellow于2014年发明,其主要由两个不同的模型共同组成——生成器(Generative Model)和判别器(Discriminative Model)。GAN通过设计生成模型和判别模型这两个模块,使其互相博弈学习产生了相当好的输出论文。

2024-07-30 15:50:15 895

原创 【论文共读】【翻译】【GAN】Generative Adversarial Nets

提出了一种新的对抗过程估计生成模型的框架,其中我们同时训练两个模型:一个是捕获数据分布的生成模型G,另一个是估计样本来自训练数据而不是G的概率的判别模型D。G 的训练程序是最大化 D 犯错的概率。该框架对应于 minimax 双人游戏。在任意函数 G 和 D 的空间中,存在一个唯一的解,其中 G 恢复训练数据分布,D 在所有地方都等于1/2。在G和D由多层感知器定义的情况下,整个系统可以通过反向传播进行训练。在训练或生成样本期间,不需要任何马尔可夫链或展开的近似推理网络。

2024-07-30 15:12:31 1438

原创 昇思 25 天学习打卡营第 22 天 | MindSpore DCGAN 生成漫画图像

MindSpore 的 DCGAN 的图像风格迁移互换DCGAN(深度卷积对抗生成网络), 是 GAN 网络的扩展;不同之处在于DCGAN会分别在判别器和生成器中使用卷积和转置卷积层。论文地址论文中文翻译地址主要创新点:a. 提出并评估了一组对卷积 GAN 架构拓扑的约束,这些约束使它们在大多数设置下都能稳定地进行训练。我们将这类架构命名为深度卷积 GAN (DCGAN)b. 使用经过训练的判别器进行图像分类任务,显示出与其他无监督算法相比的竞争性能。

2024-07-30 12:40:04 605

原创 【论文共读】【翻译】【DCGAN】UNSUPERVISED REPRESENTATION LEARNING WITH DEEP CONVOLUTIONAL GENERATIVE ADVERSARIAL

近年来,使用卷积网络 (CNN) 的监督学习在计算机视觉应用中得到了大量采用。相比之下,使用CNN的无监督学习受到的关注较少。在这项工作中,我们希望帮助弥合CNN在监督学习和无监督学习方面的成功之间的差距。我们介绍了一类称为深度卷积生成对抗网络 (DCGAN) 的 CNN,它们具有一定的架构约束,并证明它们是无监督学习的有力候选者。在各种图像数据集上进行训练,我们展示了令人信服的证据,证明我们的深度卷积对抗对在生成器和鉴别器中学习了从对象部分到场景的表示层次结构。

2024-07-30 11:21:27 562

原创 昇思 25 天学习打卡营第 21 天 | MindSpore CycleGAN图像风格迁移互换

MindSpore 的 CycleGAN 的图像风格迁移互换论文地址论文中文翻译地址主要流程:我们有一个转换器 G : X → Y,另一个转换器 F : Y → X,那么 G 和 F 应该是彼此的倒数,并且两个映射都应该是双射。我们通过同时训练映射 G 和 F,并添加周期一致性损失(cycle consistency losses)来应用这一结构假设,该损失鼓励 F(G(x)) ≈ x 和 G(F(y)) ≈ y。

2024-07-29 14:27:34 1020

原创 [论文共读][翻译][CycleGAN] Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks

图像到图像转换是一类视觉和图形问题,其目标是使用一组对齐的图像对的训练来学习输入图像和输出图像之间的映射。但是,对于许多任务,配对训练数据将不可用。我们提出了一种学习方法,用于在没有配对样本的情况下将图像从源域 X 转换为目标域 Y。我们的目标是学习 G : X → Y 的映射,使得 G(X) 的图像分布与使用对抗损失的分布 Y 无法区分。由于这种映射受到高度欠限,我们将其与反向映射 F : Y → X 耦合,并引入周期一致性损失以强制 F(G(X)) ≈ X(反之亦然)。

2024-07-29 11:20:44 1118

原创 昇思 25 天学习打卡营第 20 天 | MindNLP ChatGLM-6B 对话流

MindSpore 的使用 ChatGLM-6B 的对话流GPT2 论文地址。

2024-07-27 23:52:30 379

原创 昇思 25 天学习打卡营第 19 天 | 基于MindSpore 的 GPT2 文本摘要

MindSpore 的使用 GPT2 实现文本摘要GPT2 论文地址。

2024-07-27 23:48:28 360

原创 昇思 25 天学习打卡营第 18 天 | 基于 MobileNetV2 实现垃圾分类的函数自动微分

MindSpore 的 MobileNetV2 实现垃圾分类的函数自动微分

2024-07-26 16:43:46 545

原创 昇思 25 天学习打卡营第 17 天 | 基于 MindSpore 通过 GPT 实现情感分类

mindspore 实现 GPT 实现情感分类;GPT 论文地址GPT 基本介绍:它是 OpenAI 于2018年开发并发布的一种新型语言模型。他是通过对各种未标记文本语料库进行语言模型的生成预训练,然后对每个特定任务进行判别性微调,可以实现自然语言理解包括各种不同的任务,例如文本蕴涵、问答、语义相似性评估和文档分类等功能。

2024-07-26 14:15:19 522

原创 【论文共读】【翻译】【GPT】Improving Language Understanding by Generative Pre-Training

自然语言理解包括各种不同的任务,例如文本蕴涵、问答、语义相似性评估和文档分类。尽管大量未标记的文本语料库很丰富,但用于学习这些特定任务的标记数据很少,这使得判别性训练的模型难以充分执行。我们证明,通过对各种未标记文本语料库进行语言模型的生成预训练,然后对每个特定任务进行判别性微调,可以实现这些任务的巨大收益。与之前的方法相比,我们在微调过程中利用任务感知的输入转换来实现有效的传输,同时需要对模型架构进行最少的更改。我们在自然语言理解的广泛基准上证明了我们的方法的有效性。

2024-07-26 12:40:37 1209

原创 昇思 25 天学习打卡营第 16 天 | mindspore 实现 BERT 对话情绪识别

mindspore 实现 BERT 对话情绪识别;BERT 论文地址BERT 基本介绍:它是Google于2018年末开发并发布的一种新型语言模型。与BERT模型相似的预训练语言模型例如问答、命名实体识别、自然语言推理、文本分类等在许多自然语言处理任务中发挥着重要作用。创新点:主要实在 pre-train 方法上;训练BERT的时候,随机把语料库中15%的单词做Mask操作。

2024-07-24 14:20:34 785

原创 [论文共读][翻译][BERT][Pre-training of Deep Bidirectional Transformers for Language Understanding]

介绍了一种新的语言表示模型BERT,即Bidirectional Encoder Representations from Transformers。与最近的语言表示模型不同(Peters et al., 2018a;Radford et al., 2018),BERT 旨在通过在所有层中共同调节左右上下文来预训练来自未标记文本的深度双向表示。因此,预训练的 BERT 模型只需一个额外的输出层即可进行微调,从而为各种任务(例如问答和语言推理)创建最先进的模型,而无需对特定任务的架构进行大量修改。

2024-07-24 12:43:38 1022

原创 [论文共读][翻译][ViT][Transformers for image recongnition at scale]

对 ViT 论文的全文翻译虽然 Transformer 架构已成为自然语言处理任务的事实标准,但它在计算机视觉中的应用仍然有限。在视觉中,注意力要么与卷积网络结合使用,要么用于替换卷积网络的某些组件,同时保持其整体结构不变。我们发现,这种对CNN的依赖是不必要的,直接应用于图像补丁序列的纯转换器可以在图像分类任务中表现出色。

2024-07-24 07:45:00 2039

原创 昇思 25 天学习打卡营第 15 天 | mindspore 实现 VisionTransformer 图像分类

mindspore 实现 VisionTransformer 图像分类;VisionTransformer 论文地址VisionTransformer (ViT) 基本介绍:Transformer模型的提出,极大地促进了自然语言处理模型的发展。由于Transformers 的计算效率和可扩展性,它已经能够训练具有超过100B参数的空前规模的模型。ViT则是自然语言处理和计算机视觉两个领域的融合结晶。在不依赖卷积操作的情况下,依然可以在图像分类任务上达到很好的效果。

2024-07-23 15:26:56 714

原创 [论文共读][翻译][Transformer][Attension is All You Need]

Attention is all you need!显性序列转导模型基于复杂的递归或卷积神经网络,包括编码器和解码器。性能最好的模型还通过注意力机制连接编码器和解码器。我们提出了一种新的简单网络架构,即Transformer,它完全基于注意力机制,完全省去了递归和卷积。对两个机器翻译任务的实验表明,这些模型在质量上更出色,同时具有更高的可并行化性,并且需要更少的训练时间。我们的模型在 WMT 2014 英语到德语翻译任务中实现了 28.4 BLEU,比现有的最佳结果(包括集成)提高了 2 BLEU 以上。

2024-07-23 13:03:48 984

原创 昇思25天学习打卡营第14天 | mindspore 实现 SSD目标检测

mindspore 实现 SSD 图像检测;SSD 基本介绍:SSD (Single Shot MultiBox Detector) 是 Wei Liu 在 ECCV 2016 上提出的目标检测算法。使用Nvidia Titan X在VOC 2007测试集上,SSD对于输入尺寸300x300的网络,达到74.3%mAP(mean Average Precision)以及59FPS;对于512x512的网络,达到了76.9%mAP ,超越当时最强的Faster RCNN(73.2%mAP)。

2024-07-19 16:36:55 434

原创 昇思25天学习打卡营第13天 | mindspore 实现 ShuffleNet 图像分类

ShuffleNetV1 是旷视科技提出的一种计算高效的 CNN 模型,设计目标是利用有限资源达到最好的模型精度;文章链接一文中提出的一种网络框架。解决的问题:降低模型的计算量,同时达到最好的模型精度,可以应用到移动端;创新点:a. 逐点分组卷积 (Pointwise Group Convolution):将输入的特征分组卷积;这样每个卷积核只处理输入特征图的一部分通道;

2024-07-19 14:34:47 812

原创 【论文共读】【翻译】ShuffleNet v1:一种用于移动设备的极其高效的卷积神经网络

Shuffle Net V1 文章的翻译

2024-07-19 13:14:01 558

原创 昇思25天学习打卡营第11天 | mindspore 实现 ResNet 50 迁移学习

mindspore 实现 ResNet 50 迁移学习;具体 ResNet 50 的模型原理以及实现,可以参考本博客的 ResNet50 分类;迁移学习背景:把已训练好的模型参数迁移到新的模型来帮助新模型训练;原因:a. 避免从 0 开始重复造轮子;b. 减少训练成本;如果采用导出特征向量的方法进行迁移学习,后期的训练成本非常低,用CPU都完全无压力,没有深度学习机器也可以做。

2024-07-16 11:49:29 359

原创 昇思25天学习打卡营第 12 天 | mindspore 实现 ResNet50 图像分类

mindspore 实现 ResNet50 图像分类;ResNet 基本介绍:Residual Networks 是微软研究院 Kaiming He 等人于2015年在 Deep Residual Learning for Image Recognition文章链接一文中提出的一种网络框架。解决的问题:传统的卷积神经网络都是将一系列的卷积层和池化层堆叠得到的,但当网络堆叠到一定深度时,就会出现退化问题;

2024-07-16 11:00:51 566

原创 昇思25天学习打卡营第10天 | mindspore 实现 FCN 语义图像分割

mindspore 实现 FCN 语义图像分割;FCN 基本介绍Fully Convolutional Networks,FCN)是UC Berkeley的Jonathan Long等人于2015年在Fully Convolutional Networks for Semantic Segmentation文章链接一文中提出的用于图像语义分割的一种框架。FCN是首个端到端(end to end)进行像素级(pixel level)预测的全卷积网络语义分割的目的是对图像中每个像素点进行分类。

2024-07-15 00:02:32 535

原创 《昇思25天学习打卡营第9天 | mindspore 使用静态图加速》

mindspore 框架分为两种运行模式,分别是动态图模式(PYNATIVE_MODE)以及静态图模式(GRAPH_MODE); 默认使用动态图模式; 但是,也提供静态图模式; 使用静态图模式时,编译器可以针对图进行全局的优化,获得较好的性能,因此比较适合网络固定且需要高性能的场景

2024-07-12 12:08:18 372

原创 《昇思25天学习打卡营第8天 | mindspore 模型保存与加载用法》

使用 mindspore 保存与加载模型参数以及模型中间结果

2024-07-10 14:40:39 335

原创 《昇思25天学习打卡营第7天 | mindspore 模型训练常见用法》

使用 mindspore,针对手写字符集,使用 DenseNet 可以进行模型的训练与评估

2024-07-10 12:11:24 358

原创 《昇思25天学习打卡营第6天 | mindspore 函数式自动微分常见用法》

使用 mindspore 的函数式自动微分常见用法;

2024-07-05 08:16:28 291

原创 《昇思25天学习打卡营第5天 | mindspore 网络构建 Cell 常见用法》

使用 mindspore 构建神经网络

2024-07-02 23:55:57 255

原创 《昇思25天学习打卡营第4天 | mindspore Transforms 数据变换常见用法》

使用 mindspore 的常见的数据变换 Transforms 的使用方法;

2024-06-30 23:36:57 185

原创 《昇思25天学习打卡营第3天 | mindspore DataSet 数据集的常见用法》

昇思25天学习打卡营第3天; mindspore DataSet 数据集的常见用法

2024-06-29 23:41:52 240

原创 使用 mindspore 的常见的 Tensor 的用法

使用 mindspore 的常见的 Tensor 的用法;

2024-06-28 23:57:13 156

原创 《昇思25天学习打卡营第2天 | mindspore Tensor 的常见用法》

使用 mindspore 的 Tensor 用法

2024-06-28 23:47:16 232

mindspore 使用静态图加速

mindspore 使用静态图加速

2024-07-12

mindspore 模型保存与加载用法

mindspore 模型保存与加载用法

2024-07-10

昇思 - 08 模型训练测试.ipynb

昇思 - 08 模型训练测试

2024-07-10

《昇思25天学习打卡营第6天 - mindspore 函数式自动微分常见用法》

《昇思25天学习打卡营第6天 - mindspore 函数式自动微分常见用法》

2024-07-05

《昇思25天学习打卡营第4天 - mindspore Transforms 数据变换常见用法》

使用 mindspore 的常见的数据变换 Transforms 的使用方法

2024-06-30

《昇思25天学习打卡营第3天 - mindspore DataSet 数据集的常见用法》

mindspore DataSet 数据集的常见用法

2024-06-29

《昇思25天学习打卡营第2天 - mindspore Tensor 的常见用法》

《昇思25天学习打卡营第2天 | mindspore Tensor 的常见用法》

2024-06-28

《昇思25天学习打卡营第1天 - 快速入门 mindspore》

昇思25天学习打卡营 - 02 快速入门

2024-06-27

Volume Rendering 2

Volume Rendering 2

2024-01-02

OpenGL 的图形学坐标系介绍

介绍OpenGL的坐标变换,很精简详细。才22页,就讲全了。

2015-10-10

Net 与设计模式

Net 设计模式 C#,一本很全面而有用的C#设计模式参考书。

2012-01-31

Boost 技术与应用 侯捷译

Boost 技术与应用 侯捷译 . 不错的书!

2008-12-29

计算机视觉(马颂德)

学习三维重建||机器视觉很好的一本书。也是很经典的一本书。

2008-09-14

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除