图学习笔记(七):图神经网络算法(二)——图采样、邻居聚合
图采样
1. 为什么要图采样?
图采样的原因:
- 如果图很大,需要进行“图采样”。
权图规模太大,当代的GPU/CPU资源受限,无法一次性全图送入计算资源(难以将整张图放入GPU/CPU中),因此,需要借鉴深度学习中的MiniBatch。
MiniBatch训练
- 传统深度学习:单batch为若干个样本。样本之间无依赖,多层样本计算量固定。随着模型层数加深,参与计算的样本量固定。
- 图神经网络:单batch为若干个节点。节点之间相互依赖,随着模型层数加深,多层节点计算量爆炸。为了保证计算量在可计算的范围内,因此,要研究图采样。
2. 什么是图采样?
- 在一张图中进行采样,得到一张子图。其中需要注意:图采样是子图采样,而不是随机采样。
- 随机采样:会出现采集到的点都是互不相连的,是孤立点的情况。特别是图很大的时候,很容易出现