spark Graph 的PregelAPI 理解和使用

spark Graph 的PregelAPI 理解和使用

图本质上是一种递归的数据结构,可以使用Spark GraphX 的PregelAPI接口对图数据进行批量计算,
之前一直不怎么理解Pregel计算模型,因此花点时间整理一下,该api的理解以及使用方法等。

1、Pregel的计算模型

Pregel接口的官方定义:

  /**
   * Execute a Pregel-like iterative vertex-parallel abstraction.  The
   * user-defined vertex-program `vprog` is executed in parallel on
   * each vertex receiving any inbound messages and computing a new
   * value for the vertex.  The `sendMsg` function is then invoked on
   * all out-edges and is used to compute an optional message to the
   * destination vertex. The `mergeMsg` function is a commutative
   * associative function used to combine messages destined to the
   * same vertex.
   *
   * On the first iteration all vertices receive the `initialMsg` and
   * on subsequent iterations if a vertex does not receive a message
   * then the vertex-program is not invoked.
   *
   * This function iterates until there are no remaining messages, or
   * for `maxIterations` iterations.
   *
   * @param A the Pregel message type
   *
   * @param initialMsg the message each vertex will receive at the on
   * the first iteration
   *
   * @param maxIterations the maximum number of iterations to run for
   *
   * @param activeDirection the direction of edges incident to a vertex that received a message in
   * the previous round on which to run `sendMsg`. For example, if this is `EdgeDirection.Out`, only
   * out-edges of vertices that received a message in the previous round will run.
   *
   * @param vprog the user-defined vertex program which runs on each
   * vertex and receives the inbound message and computes a new vertex
   * value.  On the first iteration the vertex program is invoked on
   * all vertices and is passed the default message.  On subsequent
   * iterations the vertex program is only invoked on those vertices
   * that receive messages.
   *
   * @param sendMsg a user supplied function that is applied to out
   * edges of vertices that received messages in the current
   * iteration
   *
   * @param mergeMsg a user supplied function that takes two incoming
   * messages of type A and merges them into a single message of type
   * A.  ''This function must be commutative and associative and
   * ideally the size of A should not increase.''
   *
   * @return the resulting graph at the end of the computation
   *
   */
  def pregel[A: ClassTag](
      initialMsg: A,
      maxIterations: Int = Int.MaxValue,
      activeDirection: EdgeDirection = EdgeDirection.Either)(
      vprog: (VertexId, VD, A) => VD,
      sendMsg: EdgeTriplet[VD, ED] => Iterator[(VertexId, A)],
      mergeMsg: (A, A) => A)
    : Graph[VD, ED] = {
    Pregel(graph, initialMsg, maxIterations, activeDirection)(vprog, sendMsg, mergeMsg)
  }

方法的注释根据自己的实验理解如下:

执行类似Pregel的迭代顶点并行抽象。
在一次迭代计算中,图的各个顶点收到默认消息或者上一轮迭代发送的消息后;
首先调用mergeMsg函数将具有相同目的地的消息合并成一个消息;
然后调用vprog顶点函数计算出新的顶点属性值;
然后再调用sendMsg 函数向出边顶点发送下一轮迭代的消息;
迭代计算直到没有消息剩余或者达到最大迭代次数退出。

在首轮迭代的时候,所有的顶点都会接收到initialMsg消息,在次轮迭代的时候,如果顶点没有接收到消息,verteProgram则不会被调用。

这些函数迭代会一直持续到没有剩余消息或者达到最大迭代次数maxIterations

VD : 顶点的属性的数据类型。
ED : 边的属性的数据类型
VertexId : 顶点ID的类型
A : Pregel message的类型。
graph:计算的输入的图
initialMsg : 图的每个顶点在首轮迭代时收到的初始化消息
maxIterations:最大迭代的次数
vprog
vprog是用户定义的顶点程序,会运行在每一个顶点上,该vprog函数的功能是负责接收入站的message,
并计算出的顶点的新属性值。
在首轮迭代时,在所有的顶点上都会调用程序vprog函数,传人默认的defaultMessage;在次轮迭代时,只有接收到message消息的顶点才会调用vprog函数。

      vprog: (VertexId, VD, A) => VD
      输入参数: 顶点ID ,该顶点对应的顶点属性值,本轮迭代收到的message
      输出结果: 新的顶点属性值
               

sendMsg
用户提供的函数,应用于以当前迭代计算收到消息的顶点为源顶点的边edges;sendMsg函数的功能
是发送消息,消息的发送方向默认是沿着出边反向(向边的目的顶点发送消息)。

sendMsg: EdgeTriplet[VD, ED] => Iterator[(VertexId, A)],
输入参数是 EdgeTriplet :当前迭代计算收到消息的顶点为源顶点的边edges的EdgeTriplet对象。
输出结果: 下一迭代的消息。

mergeMsg
用户提供定义的函数,将具有相同目的地的消息合并成一个;如果一个顶点,收到两个以上的A类型的消息message,该函数将他们合并成一个A类型消息。 这个函数必须是可交换的和关联的。理想情况下,A类型的message的size大小不应增加。

mergeMsg: (A, A) => A)

输入参数:当前迭代中,一个顶点收到的2个A类型的message。
输出结果:A类型的消息

下面的例子是使用Pregel计算单源最短路径,在图中节点间查找最短的路径是非常常见的图算法,所谓“单源最短路径”,就是指给定初始节点StartV,
计算图中其他任意节点到该节点的最短距离。我简化了官方的示例,使我们可以更简单的理解pregel计算模型。

package graphxTest

import org.apache.spark.rdd.RDD
import org.apache.spark.sql.SparkSession
import org.apache.spark.graphx.{Edge, Graph, VertexId}

/**
  * Created by Mtime on 2018/1/25.
  */
object GraphxPregelTest {
  val spark = SparkSession
    .builder
    .appName(s"${this.getClass.getSimpleName}").master("local[2]")
    .getOrCreate()
  val sc = spark.sparkContext

  /**
    * 计算最短路径
    **/
  def shortestPath(): Unit = {
    //生成一个图对象
    val graph: Graph[Long, Double] = genGraph
    //打印出图的值
    graph.triplets.foreach(t => {
      println(s"t.srcId=${t.srcId} t.dstId=${t.dstId}  t.srcAttr=${t.srcAttr} t.dstAttr=${t.dstAttr}")
    })

    val sourceId: VertexId = 1 // 计算顶点1到图各个顶点的最短路径
    // Initialize the graph such that all vertices except the root have distance infinity.
    val initialGraph = graph.mapVertices((id, att) =>
        if (id == sourceId) 0.0 else Double.PositiveInfinity)

    println("------------------------------")
    //打印出图的值
    initialGraph.triplets.foreach(t => {
      println(s"t.srcId=${t.srcId} t.dstId=${t.dstId}  t.srcAttr=${t.srcAttr} t.dstAttr=${t.dstAttr}")
    })

    val sssp:Graph[Double,Double] = initialGraph.pregel(Double.PositiveInfinity)(
      (vid, vidAttr, message) => math.min(vidAttr, message), // Vertex Program
      triplet => {
        // Send Message
        if (triplet.srcAttr + triplet.attr < triplet.dstAttr) {
          Iterator((triplet.dstId, triplet.srcAttr + triplet.attr))
        } else {
          Iterator.empty
        }
      },
      (message_a, message_b) => math.min(message_a, message_b) // Merge Message
    )
    println("------------------------------")
    //打印出计算结果
    println(sssp.vertices.collect.mkString("\n"))
  }

  /**
    * 初始化图对象
    *
    * @return
    */
  private def genGraph(): Graph[Long, Double] = {
    val vertices: RDD[(VertexId, Long)] =
      sc.parallelize(Array(
        (1L, 0L),
        (2L, 0L),
        (3L, 0L),
        (4L, 0L),
        (5L, 0L),
        (6L, 0L))
      )
    // Create an RDD for edges
    val edges: RDD[Edge[Double]] =
      sc.parallelize(Array(
        Edge(1L, 2L, 1.0),
        Edge(1L, 4L, 1.0),
        Edge(1L, 5L, 1.0),
        Edge(2L, 3L, 1.0),
        Edge(4L, 3L, 1.0),
        Edge(5L, 4L, 1.0),
        Edge(3L, 6L, 1.0)
      )
      )
    val graph: Graph[Long, Double] = Graph(vertices, edges, 0)
    graph
  }

  def main(args: Array[String]) {
    shortestPath
  }
}

转载于:https://www.cnblogs.com/honeybee/p/8422338.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
⼤数据技术概述 ⼤数据的概念 4V:⼤量化volume、价值密度低value、快速化velocity、多样化variety。⼤量化每两年增长⼀倍,到了2020年,全球就会有35ZB数据 量,Byte->KB->MB->GB->TB->PB->EB->ZB。多样化,结构化数据,保存在关系数据库中,具有规范的⾏和列的结构数据,只占⼈类数据 量10%不到。90%是⾮结构化数据,存储在⾮关系数据库中。快速化,数据有价值必须快速处理,⼀秒定律,数据从⽣成到决策响应仅需 要⼀秒,时间延长不会有商业价值,例如推荐系统。价值密度低,⼤量数据中有价值的⽐较少,但是单点价值⽐较⾼ ⼤数据影响 数据库专家jim gray,⼈类从诞⽣以来,经历了四种研究范式。2010年后,进⼊⼤数据时代以后,是以数据为中⼼的研究范式。第⼀种实 验,⼀开始科研就是做实验观察;第⼆种理论,发明了⽜顿定律、⼏何理论由理论去研究科学问题;第三阶段,⼀九四⼏年计算机开始发明 以后,进⼊以计算为中⼼的时代,靠计算可以帮助我们解决相关的科学问题。以计算为中⼼,事先已经知道问题是什么,以数据为中⼼事先 问题不知,只有⼀堆数据,从⼤量数据中去发现问题,再靠数据去解决问题,全部靠数据去驱动。我们思维⽅式⾃从⼤数据时代到来后,发 ⽣了值的变迁。全样⽽⾮抽样,以前采⽤统计学抽样⽅式(存储设备贵、存储数据少、CPU和技术能⼒不强、⽆法短时间迅速计算),⼤数 据时代有⾜够能⼒存储⾜够算例去计算。效率⽽⾮精确,不苛求精确度,全样数据不存在误差放⼤问题,追求速度。相关⽽⾮因果,追求相 关性,⽐如相关性是推荐系统的核⼼,有相关性⾜够带来商业价值。 ⼤数据的关键技术 数据流程包括数据采集、数据存储与管理、数据处理与分析、数据隐私与安全。⼤数据的关键技术两⼤核⼼,分布式存储和分布式处理,解 决数据存储和数据⾼校计算问题。分布式存储:⾕歌GFS和开源实现HDFS->⾕歌Big Table和开源版本Hase->NoSQL(键值、列族、图 形、⽂档数据库)->NewSQL。分布式处理:MapReduce->Spark->Flink。 ⼤数据计算模式 不同的计算模式需要使⽤不同的产品。第⼀个批处理,MapReduce和Spark⾯向批处理。第⼆个流计算,流数据像溪⽔⼀样不断到达,每 次量可能不⼤,但是会连续不断的到达。流数据要求实时处理,给出实时响应(秒级或毫秒级),否则分析结果会失去商业价值。流计算代 表产品有S4、Storm、Flume、Puma、DStream、银河流数据处理平台。第三种模式是图计算,有些应⽤场景⽐较适合图来建模,⽐如 地理信息系统(快递)、微博微信社交群体,⽹友是点,点赞就建⽴边,会发现哪些⼩朋友圈⽐较紧密。图计算代表软件:Google Pregel、GraphX、Giraph、Hma、PowerGraph、GoldenOrb。第四种场景是查询分析计算,代表产品:Google Dremel、Hive、 Cassandra、Impala。 ⼤数据技术之Hadoop Hadoop⽣态系统图 HDFS存储⾮结构化数据,⾯向批处理,YARN资源调度和管理框架,计算所需要底层内部CPU资源。MapReduce数据的计算。数据仓库 Hive本⾝不保存数据,数据保存在底层HDFS,本⾝是编程接⼝,把你写的SQL语句⾃动转换对HDFS查询分析,得到结果。Pig数据流处 理,数据清洗转换。Mahout数据挖掘的算法库,实现常⽤数据挖掘算法(分类、聚类、回归等),调⽤接⼝,传⼊参数,减少⼯作量,针 对海量数据进⾏数据挖掘分析。Ambari⾃动化的安装部署配置管理Hadoop集群的。Zookeeper分布式协作服务,选管家等,专门做分布 式协调⼀致性⼯作。HBase实时性计算,分布式数据库。Flume⽇志采集,Sqoop数据库ETL(抽取、转换、加载),完成Hadoop系统组 件之间的互通,Hadoop系统组件当中数据和关系数据库当中数据之间相互导⼊导出(HDFS数据可以导⼊MySql当中去)。 MapReduce,Map函数和Reduce函数,编程容易,屏蔽底层分布式并⾏编程细节。采⽤分⽽治之思想,并⾮所有任务都可以分⽽治之。 YARN实现⼀个集群多个框架,例如⼀千台机器,同时部署了三个框架(MapReduce、Storm、Impala),会产⽣打架,有三个管家去底 层强CPU资源。如果三个产品只接受⼀个管家,就不会打架。出现了YARN资源调度和管理框架。 ⼤数据技术之Spark Spark架构图 Spark Core:包含Spark的基本功能;尤其是定义RDD的API、操作以及这两者上的动作。其他Spark的库都是构建在RDD和Spark Core 之上的。 Spark SQL:提供通过Apache Hi
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值