大数据——GraphX之PageRank算法原理及Spark实现

什么是PageRank

PageRank对网页排名的算法,曾是Google发家致富的法宝,PageRank算法计算每一个网页的PageRank值,然后根据这个值的大小对网页的重要性进行排序。

简单PageRank算法

首先,将Web做如下抽象:

  • 将每个网页抽象成一个节点
  • 如果一个页面A有链接直接链向B,则存在一条有向边从A到B(多个相同链接不重复计算边)

因此,整个Web被抽象为一张有向图。

现在假设只有四张网页:A、B、C、D。其抽象结果如下:在这里插入图片描述
显然这个图是强连通的(从任一节点出发都可以到达另外任何一个节点)。然后需要用一种合适的数据结构表示页面间的连接关系。

PageRank算法基本思想描述:被用户访问越多的网页更可能质量越高,而用户在浏览网页时主要通过超链接进行页面跳转,因此需要通过分析超链接组成的拓扑结构来推算出每个网页被访问频率的高低,最简单的,我们可以假设当一个用户停留在某页面时,跳转到页面上每个被链页面的概率都相同。

例如:
上图中A页面链向B、C、D,所以一个用户从A跳转B、C、D的概率各为1/3.设一共有N个网页,则可以组织这样一个N维矩阵,其中第i行j列的值表示用户从页面j转到页面i的概率。这样一个矩阵叫做转移矩阵(Transition Matrix)。下面是上图的转移矩阵M:
在这里插入图片描述
设初始时每个页面的rank值为1/N,这里就是1/4。按A-D顺序得到向量v:
在这里插入图片描述
注意:M第一行分别是A、B、C和D转移到页面A的概率,而v的第一列分别是A、B、C、D的当前的rank,因此用M的第一行乘以v的第一列,所得结果就是页面A最新的rank的合理估计,同理,Mv的结果就分别代表A、B、C、D新rank值。
在这里插入图片描述
然后用M再乘以这个新的rank向量,又会产生一个rank向量。迭代这个过程,可以证明v最终会收敛,即v≈Mv,此时计算停止。最终的v就是各个页面的pagerank值。上面的向量进过几步迭代后,大约收敛在(1/4,1/4,1/5,1/4),这就是A、B、C、D最后的pagerank。

终止问题

上面过程要满足收敛性,需要具备一个条件:图是强连通的,即从任意网页可以到达其他任意网页。

互联网中存在网页不满足强连通的特性,因为有一些网页不指向任何网页,按照上面公式迭代计算下去,导致前面累积得到的转移概率被清零,最终得到的概率分布向量所有元素几乎都为0。

假设把上面图中C到D的链接丢掉,C变成了一个终止点,得到下面这个图:
在这里插入图片描述

转移矩阵M为:在这里插入图片描述
不断迭代,最终得到所有元素都为0.
在这里插入图片描述

陷阱问题

陷阱问题:是指有些网页不存在指向其他网页的链接,但存在指向自己的链接。比如下面这个图:
在这里插入图片描述
这种情况下,PageRank算法不断迭代会导致概率分布值全部转移到C网页上,这使得其他网页的概率分布值为0,从而整个网页排名就失去了意义。如果按照上面图则对应的转移矩阵M为:
在这里插入图片描述
不断迭代,最终得到如下结果:
在这里插入图片描述

完整PageRank算法

为了解决终止点问题和陷阱问题,下面需要对算法进行改进。假设选取下一个跳转页面时,既不选当前页面,也不选当前网页上的其他链接,而是以一定概率跳转到其他不相关网页,那么上面两个问题就能得到很好的解决,这就是完整PageRank算法思想。

假设跳转到当前页面(包括当前页面上的链接)的概率为α(也称为基尼系数),那么跳转到其他页面概率为(1-α),进一步假设每个页面被访问的概率相同都是1/n,于是原来的迭代工时转化为:
在这里插入图片描述
假设α的值为0.85,e是网页数目的倒数,共4个网页,所以e等于1/4.现在计算有陷阱的网页的概率分布:在这里插入图片描述
利用上面公式继续迭代下去,直到收敛,得到最终rank值。

Spark实现RageRank

这里简化初始值为1.0,α/N设置为0.15,迭代次数参考《数学之美》中提到:“一般来讲,只要10次左右的迭代基本上就收敛了”,这里设置为10次。

package nj.zb.kb09.suanfa

import org.apache.spark.SparkContext
import org.apache.spark.rdd.RDD
import org.apache.spark.sql.SparkSession

object PageRank {
  def main(args: Array[String]): Unit = {
    val spark: SparkSession = SparkSession.builder().master("local[*]").appName("PageRank").getOrCreate()

    // 生成网页边的关系
    val sc = spark.sparkContext
    val links = sc.parallelize(Array(('A',Array('D')),('B',Array('A')),('C',Array('A','B')),('D',Array('A','C'))),2).map(x=>(x._1,x._2)).cache()

    //初始化rank值,2表示分两个partition
    val ranks = sc.parallelize(Array(('A',1.0),('B',1.0),('C',1.0),('D',1.0)),2)

    //迭代10次
    for ( i <- 1 to 10){
      val contribs = links.join(ranks,2)
      val flatMapRDD = contribs.flatMap{case(url,(links,rank))=>links.map(dest=>(dest, rank/links.size))}
      val reduceByKeyRDD = flatMapRDD.reduceByKey(_+_,2)
      val rank: RDD[(Char, Double)] = reduceByKeyRDD.mapValues(0.15+0.85*_)
    }
  }
}

Spark GraphX 图算法:PageRank

package nj.zb.kb09.suanfa

import org.apache.spark.SparkContext
import org.apache.spark.graphx.{Edge, Graph, PartitionID, VertexId}
import org.apache.spark.rdd.RDD
import org.apache.spark.sql.SparkSession

object graphDemo {
  def main(args: Array[String]): Unit = {
    val spark: SparkSession = SparkSession.builder().master("local[*]").appName("graphDemo").getOrCreate()
    val sc: SparkContext = spark.sparkContext
    val a: RDD[(VertexId, (String, PartitionID))] = sc.parallelize(Array((1L,("Alice",28)),(2L,("Bob",27)),(3L,("Charlie",65)),(4L,("David",42)),(5L,("Ed",55)),(6L,("Fran",50))))
    val b: RDD[Edge[PartitionID]] = sc.parallelize(Array(Edge(2L,1L,7),Edge(3L,2L,4),Edge(4L,1L,1),Edge(5L,2L,2),Edge(5L,6L,3),Edge(3L,6L,3),Edge(2L,4L,2),Edge(5L,3L,8)))
    val userCallGraph: Graph[(String, PartitionID), PartitionID] = Graph(a,b)
    userCallGraph.vertices.collect.foreach(println)
    println()
    userCallGraph.pageRank(0.001,0.85).vertices.collect.foreach(println)
  }
}

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值