自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 《Graph Representation Learning》Chapter6-Graph Neural Networks in Practice

在这种正则化策略中,我们在训练期间随机删除(或屏蔽)邻接矩阵中的边缘,直觉认为这将使 GNN 不易过度拟合,并且对邻接矩阵中的噪声更加鲁棒。为了限制 GNN 的内存占用并促进小批量训练,可以在消息传递期间使用节点的子集。为了克服这个问题,研究者设计了对节点邻居进行二次采样的策略,基本思想是首先为批次选择一组目标节点,然后递归地对这些节点的邻居进行采样,以确保维持图的连通性。​ 术语“半监督“适用于在传导测试节点上测试 GNN 的情况,因为在这种情况下,GNN 在训练期间观察测试节点(但不观察其标签)。

2023-12-22 16:14:28 735

原创 《Graph Representation Learning》Chapter5-The Graph Neural Network Model

在 Transformer 的每一层,通过使用多个注意力头来计算输入中所有位置对之间的注意力权重,为输入数据中的每个位置(例如,句子中的每个单词)生成一个新的隐藏表示,然后将其根据这些注意力权重进行加权求和。因此,这个新的邻接矩阵现在表示图中簇之间的关联强度(即边),而新的特征矩阵表示分配给每个簇的所有节点的聚合嵌入。GNN 消息传递框架的基本意图是在每次迭代中,每个节点都会聚合来自其本地邻居的信息,并且随着这些迭代的进行,每个节点嵌入包含来自图的更远区域的越来越多的信息。通常会省略,但其有利于提升性能。

2023-12-20 18:42:38 821

原创 《Graph Representation Learning》Chapter4-Multi-relational Data and Knowledge Graphs

给出一个多关系图GVE,其中边被定义为euτv,表示两个节点间存在特定关系τ∈T,这种多关系图通常被称为知识图谱。一般来说,知识图谱补全的目标是预测图,即关系预测,本章大多数方法最初都是为知识图谱补全设计的。

2023-11-29 20:22:53 899 1

原创 《Graph Representation Learning》Chapter3-Neighborhood Reconstruction Methods

节点嵌入的目标是学习一个编码器ENC⋅将节点映射到低维嵌入空间中,然后通过其在嵌入空间中的距离来反映原始图中节点的相对位置。

2023-11-28 19:09:21 890

原创 《Graph Representation Learning》Chapter2-Background and Traditional Approaches

在介绍图表示学习和图上深度学习的概念之前,有必要给出一些方法背景和背景知识。在这一章中,我们将对图上的传统方法(区别于深度学习)进行一个非常简短而有重点的回顾,并为更彻底地处理这些方法提供参考和指南。本背景章节还将从图分析中引入关键概念,为后面的章节奠定基础。

2023-07-25 10:41:01 323 1

原创 Chapter1-图表示学习简介

William L. Hamilton 的《Graph Representation Learning》学习笔记,本书主要内容是关于我们如何使用机器学习来应对这一挑战——释放图数据的潜力。这里是第一章的主要内容。

2023-07-05 14:05:37 156 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除