我们稍微切换一下方向,讨论生成节点嵌入的矩阵分解方法。具体来说,我们讨论了前面提到的学习节点嵌入的方法如何与矩阵分解的方法联系起来。基于这些直觉,我们提出了基于矩阵分解和随机游走的嵌入方法的3个局限性。在接下来,我们将介绍针对这些限制的具体解决方案:深度表示学习和图神经网络。
1. 回顾Embeddings和矩阵分解
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/8e9bccbcedd99de1e49a0ab4fd133709.jpeg)
与矩阵分解的联系:
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/8d00413098578878fcb885d299ba5a84.jpeg)
2. 矩阵分解
最简单的定义相似度:
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/28e793ca5bd295e9f7c880196402e015.jpeg)
3. 基于Ramdom Walk的相似度:
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/d91637e41afecef31df7283a7291464d.jpeg)
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/19076f2e48bea3c00d2714c6d66a7fed.jpeg)
4. 局限性
- 不适合用于新增加的节点。
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/8ad5d874f47f9a53693821c393faaebe.jpeg)
- 不能捕捉图结构信息:
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/8203fc6d4b5f500f78cc6d1bbd6f72b4.jpeg)
- 不能使用节点、边、图的特征信息。
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/7fcf1be431616004f3d6cf787aedc316.jpeg)
5. 总结
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/da2e8f0b50e76f6df6e6692d3e5ed031.jpeg)