cs224w 图神经网络 学习笔记(十四)Influence Maximization in Networks

课程链接:CS224W: Machine Learning with Graphs
课程视频:【课程】斯坦福 CS224W: 图机器学习 (2019 秋 | 英字)

这节课的内容理论性比较强,理解起来比较难。这里给两篇论文帮助理解:

1. 前言——Viral Marketing 病毒式营销

很多时候,我们都会因为朋友的安利而去购买某些产品。
在这里插入图片描述
一个很形象的例子就是王妃效应(Kate Middleton effect)——凯特王妃的穿着往往会引领时尚圈的潮流。那么,我们怎么在一张网络中找到这样的Kate呢?

这个问题被定义为 Influence Maximization(社交网络影响力最大化 问题——在给定的初始网络中给定初始活跃节点的个数 k k k,影响力最大化问题即找到固定个数的活跃节点集,通过特定的传播模型进行传播,使得最终活跃节点数目达到最大化。

2. Influence Maximization问题

在这里插入图片描述
下面介绍两个经典的传播模型

Linear Threshold Model 线性阈值模型

在线性阈值模型中,每个节点 v v v都有一个影响阈值 θ v ∈ U [ 0 , 1 ] \theta_v \in U[0,1] θvU[0,1],这个阈值在0到1的范围内均匀、随机地选取,一旦确定在传播中就不再改变。

对于节点 v v v来说,它的每个邻居节点 w w w对它都由一个影响因素 b v , w b_{v,w} bv,w,且 ∑ w  neighbour of  v b v , w ≤ 1 \sum_{w \text{ neighbour of }v} {b_{v,w}} \le1 w neighbour of vbv,w1。当周围邻居对该节点的影响超过它的影响阈值时,即 ∑ w  neighbour of  v b v , w ≥ θ v \sum_{w \text{ neighbour of }v} {b_{v,w}} \ge \theta_v w neighbour of vbv,wθv时,该节点被激活。

Independent Cascade Model 独立级联模型
在这里插入图片描述
Influence Maximization问题的难点
在这里插入图片描述
这个问题是一个NP问题。——Influence maximization is NP-complete。但是,我们可以用近似算法进行求解。

3. 爬山算法——基于次模函数的研究方法

我们先来看一下爬山算法(Greedy Hill Climbing algorithm)。爬山算法能够达到63%的精度。
在这里插入图片描述
在这里插入图片描述
影响最大化的爬山算法是一种基于次模函数的研究方法——PPT中有详细的证明。或者可以看论文:An analysis of approximations for maximizing submodular set functions

次模函数(Submodular functions)——一个集合函数,随着输入集合中元素的增加,增加单个元素到输入集合导致的函数增量的差异减小。次模函数满足下面这个公式:
在这里插入图片描述

它的每一次选择都能提供最大影响增量的节点,最后,通过一系列局部最优解的组合来得到全局最优解的近似值。它的优点是精确度相对较高,但是也存在着严重的效率问题,即算法时间复杂度高,执行时间长,导致在节点规模巨大的大规模社交网络中无法实际使用。——江禹. 社交网络中影响最大化的研究与应用[D].

4. 改进:Sketch-based Algorithms

参考论文:Sketch-based influence maximization and computation: Scaling up with guarantees

这部分我看起来确实很吃力,所以 - 推荐一份更认真的笔记:斯坦福CS224W图机器学习Lecture 14-influence学习笔记

以及,推荐一本书:大数据网络传播模型和算法

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值