Deep Neural Networks for Learning Graph Representations
网络性质 | 属性、标签 | 权重 | 方向 | 方法 | 任务 |
---|---|---|---|---|---|
同质 | 有 | 有权 | 有向 | matrix factorization | node classification |
异质 | 无 | 无权 | 无向 | random walk | link prediction |
/ | / | / | 有向&无向 | deep learning | clustering (community detection) |
/ | / | / | / | transition matrix | visualization |
输入:对角矩阵与转移矩阵的相乘,且 α \alpha α概率相乘, 1 − α 1-\alpha 1−α 概率回到起点
文章是2016年的,深度学习大火,所以,这篇文章的重点在于应用深度学习,用非线性模型来抓取其中的结构、语义信息。
主体是auto-encoder,auto-encoder的输入是经过随机减少特征的PPMI矩阵,这个PPMI矩阵,是特殊的转移矩阵的经过k步衰减之后的求和。
Random Surfing and Context Weighting
We introduce a row vector p k p_k pk, whose j-th entry indicates the probability of reaching the j-th vertex after k steps of transitions, and p 0 p_0 p0 is the initial 1-hot vector with the value of the i-th entry being 1 and all other entries being 0.
那么其实这里的 p 0 p_0 p0只是第 i i i个节点的起始状态, p k p_k pk是以第 i i i个节点起始, 转移 k