Graph Neural Network
文章平均质量分 91
lzk_nus
这个作者很懒,什么都没留下…
展开
-
CS224W Lecture6-8笔记
Graph Neural Networklecture 6,7,8详细介绍了图表示学习中的深度学习方法。之前介绍过Node Embedding,但是都是基于一些很“shallow”的特征,GNN可以帮助我们更高效地学习到更好的node、link、graph embedding。课程中所讲到的GNN都是spatial-based,也就是模型的结构是基于结点地空间特征,具体来说就是当前结点地embedding由它的neighbor得来,而spatial-based GNN遵循的一种模式叫做Message +原创 2022-01-12 00:43:22 · 247 阅读 · 0 评论 -
CS224W Lecture5笔记
Message Passing and Node Classificationlecture 5主要介绍的是一种用于结点分类的Framework: Message Passing。在结点分类中,我们的任务其实是semi-supervised:已知部分结点的label,预测未知结点的label。而Message Passing是一种利用了图的同质性的模型,简言之,就是通过neighbor来预测未知结点,遵循的思想就类似于“近朱者赤近墨者黑”HomophilyMessage Passing框架的前提假设就原创 2022-01-12 00:41:51 · 286 阅读 · 0 评论 -
CS224W Lecture4笔记
PageRankPageRank是用Link Analysis来计算结点重要性的一种算法,最经典的应用就是网页的重要性排序。我们可以把互联网看作是一张有向图,每个网址都是一个结点,边就是网站中的超链接,如果网站iii中有跳转到网站jjj的链接,那么就连一条从iii到jjj的边。显然,每个网站的重要性是不一样的,比如www.google.com的重要程度显然要比www.nus.edu.sg的重要程度高。“Flow” Model最直接的想法是把边看作投票,根据每个结点的入度排序,认为入度大的结点比较重要。原创 2022-01-12 00:38:32 · 346 阅读 · 0 评论 -
CS224W Lecture3笔记
Node Embeddinglecture2中介绍的是一些传统的feature engineering,这节课所介绍的是更加高效、task-independent的node embedding,类似于word2vec。lecture中主要介绍了两种比较流行的方法:DeepWalk和Node2VecEncoder-Decoder FrameworkNode Embedding遵循的还是一种Encoder-Decoder的模式。Encoder负责将原来的node映射到embedding space,dec原创 2022-01-12 00:36:38 · 373 阅读 · 0 评论 -
CS224W Lecture2笔记
Traditional Method for ML in Graphslecture2主要介绍的是传统的图机器学习方法,从三个维度进行阐述:Node level, Link level, Graph level。想要应用机器学习模型,首先需要从图中提取出能够充分表示这张图信息的特征,而本节lecture介绍的就是比较传统的feature engineering。Node LevelNode level 的任务比较典型的是对节点进行分类,如下图所示那么假如我们想使用比如SVM来做节点分类,那么我们就原创 2022-01-12 00:34:58 · 351 阅读 · 0 评论