![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
CS224W图神经网络
文章平均质量分 93
小粥铺
这个作者很懒,什么都没留下…
展开
-
斯坦福图机器学习CS224W笔记自用: Reasoning in Knowledge Graphs using Embeddings
在大型知识图上回答预测性查询原创 2022-11-30 21:12:05 · 475 阅读 · 0 评论 -
斯坦福图机器学习CS224W笔记自用:Heterogeeneous Graphs and Knowledge Graph Embeddings
TransE中任何关系的平移都在同一嵌入空间中进行建模。TransR将实体建模为实体空间。我们将扩展GCN来处理具有多种边/关系类型的异构图,我们从一个只有一个关系的有向图开始。- 请注意,这与经典的链接预测任务略有不同,这里我们只对特定节点的特定关系感兴趣。基于Distmult,ComplEx在复向量空间中嵌入实体和关系。:对于给定的(头部,关系),我们预测丢失的尾部。中的向量,并将每个关系建模为具有投影矩阵。ComplEx的评分函数。将实体向量从实体空间。原创 2022-11-11 15:44:34 · 575 阅读 · 0 评论 -
斯坦福图机器学习CS224W笔记自用:How Expressive are Graph Neural Networks?
节点使用神经网络聚合来自其本地网络邻域的信息生成节点嵌入。到目前为止已经提出了许多 GNN 模型(例如,、、以及这类模型的整个如果所有节点的特征向量相同,我们如何来区分不同的节点呢?我们考虑图中每个节点周围的?GNN通过捕获节点的局部邻域结构并生成节点嵌入:先捕获树的单个级别的结构,然后利用算法捕获树的整个结构。树重点在于,我们能否汇总来自孩子的信息并以某种方式存储这些信息将其传递给树中的父代。原创 2022-09-24 15:11:00 · 504 阅读 · 0 评论 -
CS224W图机器学习笔记自用:GNN Augmentation and Training
today’s outline:两种图增强的方法:需要增强图的原因:综上所述,输入图不是嵌入的最佳计算图 。为什么我们需要特征增强?第一种情况:解决方法:a)为节点分配常数特征b)为节点分配唯一的ID,这些ID值可以被转换为独热向量两种方法的比较:Constant vs. one-hot第二种方法比第一种方法表达能力更强;第一种方法归纳能力更强,能够很容易地推广到新节点,第二种方法则不行;同时第一种方法的计算开销也更小;第一种方法适用于任意图,同时具有归约能力,能推广到新节点,第二种方法适用于小图,只原创 2022-09-19 19:53:28 · 551 阅读 · 0 评论 -
斯坦福CS224W图机器学习笔记自用:A General Perspective on Graph Neural Networks
GNN层 = Message(消息转换) + Aggregation(消息聚合)不同的图神经网络架构对这两种操作的定义不同。定义GNN层:将一组向量压缩成一个向量Message。原创 2022-09-17 10:15:33 · 422 阅读 · 0 评论 -
CS224W图神经网络笔记自用:Graph Neural Networks
Jure Leskovec斯坦福CS224W图机器学习笔记自用:Graph Neural Network原创 2022-09-06 20:21:25 · 345 阅读 · 0 评论 -
CS224W图神经网络笔记自用:Message passing and Node Classification
Correct&Smooth(C&S)使用图形结构对任何基础模型预测的软节点标签进行后期处理。校正步骤:扩散并校正基础预测器的训练误差。平滑步骤:平滑基础预测器的预测。C&S在半监督节点分类方面取得了很好的性能。......原创 2022-08-31 10:35:30 · 290 阅读 · 0 评论