Graph Representation Learning (Hamilton图表示学习)笔记(二)

Chapter 2 Background and Traditional Approaches

本章主要介绍了一些在深度学习之前用于图数据的机器学习方法。

2.1 Graph Statistics and Kernel Methods

传统的图数据的分类方法和常规的机器学习流程相同,也是先在数据中提取一些统计量或特征,然后用这些特征训练一个标准的分类器。因此,如何提取有效的统计量和特征是一个比较重要的问题。

2.1.1 Node-level statistics and features

首先给出如下的15世纪 Florentine不同家族间的婚姻关系图作为示例,婚姻关系是政治地位的一种反应,Medici家族当时享有较高的地位,结合这个示例我们可以尝试找出哪些统计量能在众多节点中把那些与众不同的节点区分出来。
在这里插入图片描述
Node Degree. 最直观的特征是节点的度,表示和一个节点相连的边有多少条:
在这里插入图片描述
节点的度包含的信息量比较大,在用传统方法处理节点级任务时很常用。例如在示意图中,Medici家族的度就是最大的。

Node centrality. centrality可以有多种不同的定义方式,一种比较常见的是eigenvector centrality,这种特征不仅考虑节点有多少个邻居,还考虑了每个邻居的重要性。具体的,用循环定义的方式给出eigenvector centrality的概念,即每个节点的centrality正比于它的邻居的平均centrality:
在这里插入图片描述
其中, λ \lambda λ是常数。
将所有节点写成向量形式,发现恰好得到邻接矩阵A的特征向量公式:
λ e = A e \lambda e=Ae λe=Ae
也就是说,满足定义的centrality应该对应A的一个特征向量。如果我们要求centrality为正值,那么根据Perron-Frobenius定理,满足条件的应该是

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 表示学习是一种机器学习技术,旨在将形数据转换为低维向量表示,以便于计算机进行处理和分析。这种技术可以应用于各种领域,如社交网络分析、生物信息学、推荐系统等。通过表示学习,可以更好地理解和分析形数据,从而提高数据处理和应用的效率。 ### 回答2: 表示学习是一种机器学习的方法,用于学习和提取结构中的有用信息和特征。表示学习的目标是将中的节点和边转化为向量表达,从而实现对结构的分析和预测。 表示学习可以应用于各种各样的领域,如社交网络分析、生物信息学、推荐系统等。通过学习中节点的向量表达,我们可以对节点进行聚类、分类、推荐等任务。同时,表示学习还可以揭示结构中的隐藏关系和模式,帮助我们理解和挖掘中的信息。 表示学习有多种方法和技术。其中一种常用的方法是基于的随机游走。通过模拟随机游走的过程,我们可以收集节点的邻居信息,并根据节点的邻居关系来学习节点的向量表达。还有一种常用的方法是基于卷积网络。这种方法利用结构的局部连接性来学习节点的向量表达,通过多层卷积网络可以逐步提取节点的更高级别的特征。 表示学习挖掘和数据分析领域具有广泛的应用和研究价值。它可以帮助我们理解和解释复杂的结构,从而更好地处理和分析数据。同时,表示学习还能够应对大规模和高维度的数据,提高计算效率和准确性。未来,我们可以进一步研究和发展表示学习的方法和技术,以应对数据分析的挑战。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值