图机器学习
文章平均质量分 96
笔记
submarineas
不积跬步,无以至千里
展开
-
CS224W课程学习笔记(二):网络图的特征说明和指标实战
在第二三节课中,主要研究的是四个关键网络属性以表征图形:**度分布,路径长度,聚类系数和连接组件** 。 这些定义主要是针对无向图的,而由于上一节中已经介绍了度分布,以及相应公式和例题,关于路径长度,简单来讲就是一个图中所需占比最短的一条或者多条路径,该路径并不唯一,讲深点,就得从过程遍历来看列举的四种算法了,每种都有每种的优劣,这里也不再详述,主要根据课程助教写的笔记,针对后两个重新复习。原创 2023-02-16 22:16:15 · 876 阅读 · 0 评论 -
图节点嵌入相关算法学习笔记
本篇笔记为coggle 2月打卡任务,正好也在学习cs224w,干脆就一起做了,以下是任务列表:原创 2023-02-26 23:04:27 · 664 阅读 · 0 评论 -
CS224W课程学习笔记(一):课程介绍与图深度学习概念
我们从怎么利用图形或网络表示数据这一动机开始。网络成为了用于描述复杂系统中交互实体的通用语言。从图片上讲,与其认为我们的数据集由一组孤立的数据点组成,不如考虑这些点之间的相互作用和关系。在不同种类的网络之间进行哲学上的区分是有启发性的。对网络的一种解释是作为现实生活中出现的现象的例子。我们称这些网络为 。比如:网络的另一种解释是作为一种可用于解决特定预测问题的数据结构。在这种情况下,我们对实体之间的关系更为感兴趣,因此我们可以有效地执行学习任务。我们称这些网络为 ,比如:在本课程中,我们主要考虑和学习原创 2023-02-13 22:13:30 · 900 阅读 · 0 评论 -
CS224W课程学习笔记(三):DeepWalk算法原理与说明
时间到了2014年,那是word2vec问世的第二年,Bryan Perozzi[1]创造性地提出了DeepWalk,将词嵌入的方法引入图嵌入,将图嵌入引入了一个新的时代,文章首图就是以该文章的截图,向作者致敬。DeepWalk提出了“随机游走”的思想,这个思想有点类似搜索算法中的DFS,从某一点出发,以深搜的方式获得一个节点序列。这个序列即可以用来描述节点。参照下图:原创 2023-02-20 18:19:15 · 1419 阅读 · 0 评论 -
CS224W课程学习笔记(四):node2vec算法原理与说明
DeepWalk可以说给大家带来了全新的思路,其意义远不止实验结果那么简单。理论上,对于任何图数据,或者是由关系型数据抽象出来的图数据,都可以利用DeepWalk得到Embedding,而且算法简单,易于扩展到大规模数据上;更为重要的,这启发了后续的研究者进行了更加深入的研究。node2vec的作者针对DeepWalk不能用到带权图上的问题,提出了概率游走的策略,并使用AliasSampling进行采样,该算法在之后会尝试讲解,这里主要提及一下它的创新点。原创 2023-02-24 18:53:02 · 3231 阅读 · 3 评论 -
CS224W课程学习笔记(五):GNN网络基础说明
GNN 是对图的所有属性(节点、边、全局上下文)的可优化转换,它保持了图对称性(排列不变性)。这里我们可以构建一个最简单的GNN模型,此GNN在图的每个组件上使用单独的多层感知器(MLP),即分别对图的点、边和全局三个向量分别做一次MLP,用不同的映射函数,如下图所示:但现实是往往很难直接拿到完整的点或者边的信息,可能我们可以获取到所有的边,而缺少了一些点的数据,我们最终的目标是对节点进行预测,所以需要一种方法来从边缘收集信息并将其提供给节点进行预测。原创 2023-03-08 23:57:58 · 822 阅读 · 0 评论 -
LINE、SDNE和struc2vec图嵌入算法学习笔记
真实世界的信息网络中,能观察到的直接链接仅占很小的比例,大部分链接都因观察不到而缺失。比如社交网络中,很多线下的关系链并没有百分之百同步到线上。如果顶点vvv和uuu的链接发生缺失,则其一阶邻近度为0,即使实际上它们关系非常密切。因此仅仅依靠一阶邻近度不足以描述网络的全局结构,我们需要寻找方法来解决这种因为大部分链接缺失导致的网络稀疏问题。一阶相似性网络中的一阶相似性是两个顶点之间的局部点对的相似度。对于有边uv(u,v)uv连接的每对顶点,该边的权重WuvW_{uv}Wuv。原创 2023-03-04 21:41:17 · 1668 阅读 · 0 评论