论文笔记:Inductive Representation Learning on Large Graphs

一个公众号的推送:https://mp.weixin.qq.com/s/9FlkgAERmIOamPtpIffQLg
论文笔记:https://blog.csdn.net/imark11/article/details/78698844
https://www.aminer.cn/research_report/5d1ef7d47fb2beaed572226b
图计算综述类文章:https://www.jianshu.com/p/872509634a13
其他不错的文章:https://cloud.tencent.com/developer/article/1469804

在这里插入图片描述

适用于大规模网络的归纳式(inductive)学习方法-GraphSAGE,能够为新增节点快速生成embedding,而无需额外训练过程。GraphSage 每个节点由其邻域的聚合 (aggregation) 表示。因此,即使图中出现了在训练过程中没有看到的新节点,它仍然可以用它的邻近节点来恰当地表示。GraphSage训练所有节点的每个embedding,还训练一个聚合函数,通过从节点的相邻节点采样和收集特征来产生embedding。本文训练一组aggregator函数来从一个节点的邻节点aggregate特征信息,每个aggregator函数从不同的hops或搜索深度aggregate信息。不同于为每个节点训练独立的embedding,本文训练的是一系列不同深度的聚合函数,学习节点邻居的聚合特征。

算法表示:
在这里插入图片描述
主要是对顶点更新k次,每一次顶点v都由邻居顶点的聚合函数来更新。
因此主要的是聚合函数。
论文给出三种聚合函数:

  1. Mean aggregator:
    mean aggregator 取一个节点及其所有邻域的潜在向量的平均值。使用此更新方法,原算法可以去掉第五行。
    在这里插入图片描述

  2. LSTM aggregator:
    将顶点的邻居排列成随机序列,输入LSTM网络来表达当前顶点v。

  3. Pooling aggregator:
    这个运算符在相邻集上执行一个 element-wise 的 pooling 函数。
    max pooling为:在这里插入图片描述

损失函数和大部分图表示的一样,邻居向量相似,加入负采样:
在这里插入图片描述
这种损失函数鼓励距离较近的节点具有相似的嵌入,而距离较远的节点则在投影空间中被分离。通过这种方法,节点将获得越来越多的关于其邻域的信息。

其他笔记中值得关注的:
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值