- 博客(379)
- 资源 (3)
- 收藏
- 关注
原创 遗传算法与深度学习实战——进化深度学习
进化深度学习 (Evolutionary Deep Learning, EDL) 是一套可以用于自动化深度学习系统开发的工具和实践,EDL 包括了广泛的进化计算方法和模式,可以应用于深度学习系统流程的各个方面。本节中,介绍了深度学习面临的挑战,以及进化深度学习在应对这些挑战方面的技术方法。
2024-07-25 11:20:24
921
13
原创 PyTorch深度学习实战——使用深度Q学习进行Pong游戏
我们已经学习了如何利用深度 Q 学习来进行 Gym 中的 CartPole 游戏。在本节中,我们将研究更复杂的 Pong 游戏,并了解如何结合深度 Q 学习与固定目标网络进行此游戏,同时利用基于卷积神经网络 (Convolutional Neural Networks, CNN) 的模型替代普通神经网络。
2024-07-22 09:14:37
1891
30
原创 图神经网络实战(17)——深度图生成模型
图生成是生成新图的技术,并且希望所生成的图具有真实世界中图的性质。由于传统图生成方法缺乏表达能力,因此提出了更加灵活的基于图神经网络的技术。本节中,我们介绍了三类深度图生成模型: 基于变分自编码器的模型、基于自回归模型和基于生成对抗网络的模型。
2024-07-18 10:27:28
1200
30
原创 PyTorch深度学习实战(46)——深度Q学习
深度 Q 学习是一种结合了深度学习和强化学习的方法,通过深度神经网络逼近 Q 值函数,在解决大规模、连续状态空间问题方面具有优势,并在多个领域展示了强大的学习和决策能力。在本节中,介绍了深度 Q 学习的基本概念,并学习了如何使用 PyTorch 实现深度 Q 学习进行 CartPole 游戏。
2024-07-15 08:43:39
1193
32
原创 PyTorch深度学习实战(45)——强化学习
强化学习是当前人工智能领域的研究热点问题,强化学习主要通过考察智能体与环境的相互作用,得到策略模型、优化策略并最大化累积回报的过程。强化学习具有巨大的研究价值和应用潜力,是实现通用人工智能的关键技术。本文首先介绍强化学习的基本原理,包括马尔可夫决策过程、价值函数、探索-利用问题等,然后介绍经典的强化学习算法,最后使用 PyTorch 实现在游戏中模拟强化学习算法。
2024-07-10 14:50:15
1214
38
原创 图神经网络实战(16)——经典图生成算法
图生成算法是指用于创建模拟图或网络结构的算法,这些算法可以根据特定的规则和概率分布生成具有特定属性的图,用于模拟各种复杂系统,如社交网络、生物网络、交通网络等。传统图生成技术已有数十年历史,并可用作各种应用的基准,但这些技术在生成的图类型上存在限制。这些方法大多数都专注于输出特定的拓扑结构,因此不能简单地模仿给定网络。在本节中,我们将介绍两种经典图生成技术:Erdős–Rényi 模型和小世界 (small-world) 模型。
2024-07-07 10:46:31
1850
42
原创 OpenCV 车牌检测
级联分类器采用的卷积核列表是经过事先标识和筛选的,只有当多数卷积核都对目标进行了正确分类时,才会给出良好的分类得分。本节中,利用预训练的级联分类器识别汽车图像中车牌的位置。
2024-07-02 15:29:38
4182
39
原创 图神经网络实战(15)——SEAL链接预测算法
链接预测是指利用图数据中已知的节点和边的信息,来推断图中未知的连接关系或者未来可能出现的连接关系,在机器学习和数据挖掘等领域具有广泛的应用。本节中介绍了用于链接预测的 SEAL 框架,其侧重于子图表示,每个链接周围的邻域作为预测链接概率的输入。并使用边级随机分割和负采样在 Cora 数据集上实现了`SEAL 模型执行链接预测任务。
2024-06-26 08:26:28
1462
37
原创 OpenCV 颜色检测
绿幕技术是一种经典的视频编辑技术,可以用于将人物置于不同的背景中。例如在电影制作中,技术的关键在于演员不能身着特定颜色的衣服(比如绿色),站在只有绿色的背景前。然后,通过识别绿色像素,确定背景并替换这些像素上的内容。在本节中,我们将了解如何利用 cv2.inRange 和 cv2.bitwise_and 方法检测给定图像中的绿色像素。
2024-06-24 08:58:02
1489
30
原创 图神经网络实战(14)——基于节点嵌入预测链接
链接预测可以帮助我们发现隐藏的关联规律,从而为网络分析、推荐系统等问题提供有效的解决方案。在本节中,介绍了如何使用图神经网络 (Graph Neural Networks, GNN) 实现链接预测,学习了基于节点嵌入的链接预测技术,包括图自编码器 (Graph Autoencoder, GAE) 和变分图自编码器 (Variational Graph Autoencoder, VGAE),并使用边级随机分割和负采样在 Cora 数据集上实现了 VGAE 模型。
2024-06-17 11:05:58
1481
73
原创 OpenCV 单词轮廓检测
在本节中,我们将学习如何在不利用深度学习的情况下识别机器打印的单词。由于打印单词的背景和前景之间的对比度很高,因此不需要像 YOLO 之类的模型来识别单个单词的位置,在这种情况下,使用 OpenCV 可以在计算资源非常有限的情况下获得解决方案,唯一的缺点是准确率可能并非 100%,准确率取决于扫描图像的质量,如果扫描图像非常清晰,则准确率可以接近 100%。
2024-06-14 09:28:58
2139
64
原创 图神经网络实战(13)——经典链接预测算法
链接预测 (Link prediction) 可以帮助我们理解和挖掘图中的关系,并在社交网络、推荐系统等领域提供更准确的预测和决策支持。为了解决链接预测问题,研究者们提出了多种方法。本节将介绍基于局部和全局邻域的启发式方法。
2024-06-11 08:31:50
2378
86
原创 图神经网络实战(12)——图同构网络(Graph Isomorphism Network, GIN)
图同构网络 (Graph Isomorphism Network, GIN) 架构受 WL 测试启发而设计的,其表达能力与 WL 测试相近,因此在严格意义上比 GCN、GAT 或 GraphSAGE 更具表达能力。在本节中,将这一架构用于图分类任务,介绍了将节点嵌入融合到图嵌入中的不同方法,GIN 通过连接求和运算符和每个 GIN 层产生图嵌入,其性能明显优于通过 GCN 层获得的经典全局均值池化。最后,我们将两个模型的预测结果进行简单的集成,从而进一步提高了准确率。
2024-06-06 09:37:23
2381
96
原创 PyTorch深度学习实战(44)——基于 DETR 实现目标检测
基于 DETR 的目标检测模型是将 Transformer 网络引入目标检测任务中,与传统的基于区域提议的检测方法有所不同。DETR 模型的核心思想是将目标检测问题转化为集合预测问题,通过将图像中的所有位置视为一个集合,并通过 Transformer 完成对整个集合的编码和解码过程,从而在单个前向传递中直接预测出目标的类别和边界框。在本节中,我们将学习 transformer 和 DETR 的原理,并使用 PyTorch 实现 DETR 以执行目标检测任务。
2024-06-04 08:26:45
1950
76
原创 探索文档解析技术,推动大模型训练与应用
探索文档解析技术是推动大模型训练与应用的重要一环。在本节中,我们将回顾来自合合信息的智能创新事业部研发总监常扬在中国图象图形大会 (CCIG 2024) 中关于文档解析技术加速大模型训练与应用的分享,介绍大模型训练和应用过程的关键环节面临的挑战,探索当前高性能的文档解析技术。
2024-05-31 08:02:11
10318
188
原创 OpenCV 创建全景图像
在本节中,我们将学习组合多个图像来创建全景图像。使用相机拍摄全景照片时,通常会拍摄多张照片,通过算法将这些图像中共同存在的元素(从左到右)映射到一张单独的图像中。
2024-05-27 08:26:47
1751
68
原创 图神经网络实战(11)——Weisfeiler-Leman测试
在本节中,我们定义了图神经网络 (Graph Neural Networks, GNN) 的表达能力,这一定义基于 WL 测试算法,它可以输出图的规范形式。虽然这种算法并不完美,但可以区分大多数图结构。
2024-05-23 08:44:25
1341
82
原创 PyTorch深度学习实战(43)——手写文本识别
手写文本识别,也称为手写文本的光学字符识别 (Optical Character Recognition, OCR),是计算机视觉和自然语言处理中的一项具有挑战性的任务。与印刷文本不同,手写文本在风格、大小和质量方面变化巨大,这使得识别和转录变得更加困难。在本节中,我们将学习如何根据手写文字图像输入生成字符序列,为了提高手写图像的转录性能,将引入 CTC 损失函数。
2024-05-21 08:30:10
1024
51
原创 PyTorch深度学习实战(42)——图像字幕生成
图像字幕生成模型在计算机视觉和自然语言处理等领域具有广泛的应用。它可以用于自动图像标注、图像搜索和辅助视觉障碍者等方面。图像字幕生成模型的目标是实现对图像的语义理解和描述生成,从而更好地连接图像和文本信息。在本节中,我们学习如何利用 CNN 和 LSTM 构建模型为图像生成描述字幕。
2024-05-17 08:23:53
1247
73
原创 图神经网络实战(10)——归纳学习
在本节中,我们将介绍图数据中的归纳学习和多标签分类,使用 GraphSAGE 模型在蛋白质相互作用 (protein-protein interactions) 数据集执行多标签分类任务,并了解归纳学习的优势和实现方法。
2024-05-13 09:11:33
1784
96
原创 AIGC实战——多模态模型DALL.E 2
DALL.E 2 是 OpenAI 提出的一个大规模文本生成图像模型,可以根据文本提示生成各种风格的逼真图像。它通过将预训练模型 CLIP 与 GLIDE 中的扩散模型架构相结合完成任务。它还具有其他应用,例如通过文本提示编辑图像和提供给定图像的变体。虽然它也有一些局限性,例如不一致的文本渲染和属性绑定,但 DALL.E 2 是仍然一个非常强大的AI模型,推动了生成模型的发展。
2024-05-08 09:23:24
1980
64
原创 图神经网络实战(9)——GraphSAGE详解与实现
本节介绍了 GraphSAGE 框架及其两个组成部分——邻居采样算法和三个不同的聚合算子,其中邻居采样是 GraphSAGE 能够高效处理大规模图的核心。并使用 PyTorch Geometric 构建 GraphSAGE 模型在 PubMed 数据集上执行节点分类,GraphSAGE 虽然准确率略低于 GCN 或 GAT 模型,但它是常用于处理大规模图数据的高效框架。
2024-05-06 08:42:11
1984
66
原创 AIGC实战——MuseGAN详解与实现
可以将音乐生成视为一个图像生成问题,这意味着可以不使用 Transformer,而是应用在图像生成问题中表现出色的基于卷积的技术,例如生成对抗网络 (Generative Adversarial Network, GAN)。本节中,我们将解决多声部音乐生成的问题,并探讨如何使用基于 GAN 架构创建多声部音乐。
2024-05-04 08:07:03
2358
52
原创 PyTorch深度学习实战(41)——循环神经网络与长短期记忆网络
循环神经网络 (Recurrent Neural Network, RNN) 通过将前一个时间步的隐藏状态作为当前时间步的输入,实现对序列数据的建模,由于循环连接的存在,RNN 能够捕获时间依赖关系,然而,RNN 在处理长期依赖性问题时会遇到困难。为了解决这个问题,提出了 LSTM,通过引入门控机制改进 RNN 来有效地处理长期依赖关系。在本节中,了解了 LSTM 和 RNN 的基本原理,并介绍了如何在 PyTorch 中实现 LSTM。
2024-04-28 08:25:13
3507
82
原创 AIGC实战——基于Transformer实现音乐生成
Transformer 是最流行的音乐生成技术之一,因为音乐可以视为一个序列预测问题,Transformer 模型将音符视为一个个符号的序列(类似于句子中的单词),从而用于生成音乐。Transformer 模型基于先前音符预测下一个音符,生成音乐作品。在本节中,将学习如何处理音乐数据,并应用 Transformer 生成与给定训练集风格相似的音乐。
2024-04-24 08:12:16
3907
111
原创 图神经网络实战(8)——图注意力网络(Graph Attention Networks, GAT)
图注意力网络 (Graph Attention Networks, GAT) 是对图卷积网络 (Graph Convolutional Network, GCN) 的改进,提出了一种通过自注意力 (self-attention) 过程计算的加权因子,而不是使用静态的归一化系数。在本节中,我们介绍了 GAT 架构。通过从线性变换到多头注意力的四个主要步骤,了解了 GAT 的工作原理,并在 NumPy 中从零开始构建了 GAT 层。最后,将 GAT 模型应用于 Cora 和 CiteSeer 数据集。
2024-04-22 08:20:25
3828
62
原创 AIGC实战——VQ-GAN(Vector Quantized Generative Adversarial Network)
在 VQ-GAN 模型中,将几种不同类型的生成模型进行有效地组合,VQ-GAN 通过额外的对抗损失项鼓励 VAE 生成更清晰的图像。使用自回归T ransformer 构建了一系列能够由 VAE 解码器解码的编码符号。ViT VQ-GAN 进一步扩展了这一思想,将 VQ-GAN 的卷积编码器和解码器替换为 Transformers。
2024-04-17 08:04:26
8429
100
原创 图神经网络实战——利用节点回归预测网络流量
在机器学习中,回归指的是对连续值的预测。通常与分类形成鲜明对比,分类的目标是找到正确的类别(即离散值,而非连续值)。在图数据中,分类和回归分别对应于节点分类和节点回归。在本节中,我们将尝试预测每个节点的连续值,而非分类变量。
2024-04-15 07:26:53
2334
61
原创 AIGC实战——StyleGAN(Style-Based Generative Adversarial Network)
StyleGAN (Style-Based Generative Adversarial Network) 是于 2018 年提出的一种生成对抗网络 (Generative Adversarial Network, GAN) 架构,该架构建立在 ProGAN 基础之上。实际上,StyleGAN 与 ProGAN 的判别器是相同的,只有生成器发生了变化。本节中,我们将介绍 StyleGAN 架构。
2024-04-10 07:32:48
4925
112
原创 AIGC实战——ProGAN(Progressive Growing Generative Adversarial Network)
我们已经学习了使用生成对抗网络 (Generative Adversarial Network, GAN) 解决各种图像生成任务。GAN 的模型架构和训练过程具有很高的灵活性,通过改进 GAN 架构设计和训练过程,研究人员提出了多种不同的网络架构,本节中,我们将介绍 ProGAN (Progressive Growing Generative Adversarial Network) 架构。
2024-04-07 09:02:04
2421
97
原创 图神经网络实战(7)——图卷积网络(Graph Convolutional Network, GCN)详解与实现
图卷积网络 (Graph Convolutional Network, GCN) 架构由 Kipf 和 Welling 于 2017 年提出,其理念是创建一种适用于图的高效卷积神经网络。在本节中,我们将讨论 Vanilla GNN 架构的局限性,并详细介绍 GCN 的工作原理,通过使用 PyTorch Geometric 在 Cora 和 Facebook Page-Page 数据集上实现 GCN 来验证其性能。
2024-04-03 07:24:39
5025
87
原创 PyTorch深度学习实战(40)——零样本学习(Zero-Shot Learning)
零样本学习 (Zero-Shot Learning) 旨在解决传统监督学习中,当训练数据中不存在某个类别的样本时,如何对该类别进行分类的问题。在传统监督学习中,分类模型需要通过训练数据学习到每个类别的特征和模式,并在测试阶段根据这些学习到的知识对新样本进行分类。然而,在现实世界中,我们无法获得所有可能类别的训练样本,因此零样本学习成为了一种重要的解决方案。在本节中,我们将学习零样本学习的基本概念,并使用 PyTorch 实现零样本学习模型。
2024-04-01 08:18:26
2325
68
原创 图神经网络实战(6)——使用PyTorch构建图神经网络
图数据集通常比简单的连接集合更加丰富,因为节点和边可以具有表示分数、颜色、单词等特征。包含这些额外信息在输入数据中对于生成最佳嵌入至关重要。在本节中,我们将使用 Cora 和 Facebook Page-Page 数据集,首先将它们视为表格数据集,观察香草神经网络在节点特征上的表现如何。然后,尝试在神经网络中加入拓扑信息,实现图神经网络 (Graph Neural Networks, GNN) 架构:一个同时考虑节点特征和边的简单模型。最后,我们将比较两种架构的性能。
2024-03-28 07:14:54
4240
140
原创 AIGC实战——Transformer模型
GPT 模型是一个解码器 Transformer,它逐字符地生成文本字符串,并使用因果掩码只关注输入字符串中的前一个单词。另一些编码器 Transformer,不使用因果掩码,而是关注整个输入字符串以提取有意义的上下文表示。对于一些其他任务,如语言翻译,可以使用编码器-解码器 Transformer,将一个文本字符串翻译为另一个文本字符串,这类模型包含编码器 Transformer 块和解码器 Transformer 块。
2024-03-25 07:18:27
3233
108
原创 图神经网络实战(5)——常用图数据集
Cora 和 Facebook Page-Page 是图神经网络领域中经常使用的两个基准图数据集,通常用来比较不同模型的性能。在本节中,介绍了如何使用 PyTorch Geometric 库提供的数据集类加载 Cora 和 Facebook Page-Page 数据集,并探索了两个数据集的主要特征。
2024-03-20 07:46:53
2825
92
原创 PyTorch深度学习实战(39)——小样本学习(Few-shot Learning)
小样本学习 (Few-shot Learning) 旨在解决在训练集中只有很少样本的情况下进行分类和推理的问题。在小样本学习中,我们希望通过利用已有的少量样本和先验知识来进行泛化,以便在面对新的、未见过的类别时能够做出准确的预测。这就要求模型能够从有限的训练样本中提取出有用的信息,并能够将这些信息应用到新类别的样本中去。在本节中,将介绍孪生、原型和关系网络的原理,并使用 PyTorch 实现孪生网络。
2024-03-18 08:25:58
2256
66
原创 图神经网络实战——基于Node2Vec的电影推荐系统
在电影推荐系统中,可以将每部电影视为一个节点,而节点之间的连接则表示电影之间的关联或相似性。Node2Vec 算法可以在电影图谱上学习出每部电影的向量表示,这些向量可以捕获电影之间的隐含关系,例如共同的演员、导演、类型等等。一旦得到了电影的向量表示,就可以使用这些表示来计算电影之间的相似度,并基于相似度来进行推荐。通过将用户喜欢的电影与其向量表示进行比较,系统可以推荐与之相似的其他电影。在本节中,构建基于 Node2Vec 的电影推荐系统。
2024-03-14 08:01:54
1461
71
原创 AIGC实战——GPT(Generative Pre-trained Transformer)
注意力机制能够用于构建先进的文本生成模型,Transformer 是用于序列建模的强大神经网络,该神经网络不需要复杂的循环或卷积架构,而只依赖于注意力机制。这种方法克服了循环神经网络难以并行化的缺陷。Transformers 高度可并行化运算,能够在大规模数据集上进行训练。在本节中,我们将学习文本生成模型如何利用 Transformer 架构提高文本性能,并介绍自回归模型 GPT (Generative Pre-Trained transformer)。
2024-03-11 08:23:04
3163
139
原创 图神经网络实战(4)——基于Node2Vec改进嵌入质量
Node2Vec 是一种基于 DeepWalk 的架构,DeepWalk 主要由随机游走和 Word2Vec 两个组件构成,Node2Vec 通过改进随机游走的生成方式改进嵌入质量。在本节中,我们将学习这些改进以及如何为给定的图找到最佳参数,实现 Node2Vec 架构,并将其与在 Zachary's Karate Club 数据集上使用的 DeepWalk 进行比较,以理解两种架构之间的差异。
2024-03-07 08:07:07
2346
94
用于目标检测的 YOLO V3 模型架构及权重文件(含 OpenCV 使用示例)
2021-09-30
用于目标检测的 MobileNet-SSD 模型架构及权重文件(使用 Caffe 框架进行预训练)
2021-09-30
用于图像分类的 ResNet-50 模型架构及权重文件(使用 Caffe 框架进行预训练)
2021-09-30
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人