第1课:通过案例对SparkStreaming 透彻理解三板斧之一

感谢DT大数据梦工厂支持提供以下内容,DT大数据梦工厂专注于Spark发行版定制。详细信息请查看
 联系邮箱18610086859@126.com
 电话:18610086859
 QQ:1740415547
 微信号:18610086859


一 为什么从Spark Streaming入手?

Spark目前有四个Spark SQL, Spark Streaming, MLlib(machine learning), GraphX(graph), Spark Core是基础,四个框架是建立在基础之上的。 所以通过框架彻底研究肯定可以精通Spark力量的源泉和所有Spark问题的解决之道。
那么选择哪个框架呢?
1. Spark SQL涉及到很多SQL语法解析和优化的细节,对于我们集中精力研究Spark有所干扰。
2. Spark R还不是很成熟,支持功能有限。GraphX最近几个版本基本没有改进,里面有很多数学算法。
3. MLlib也涉及到很多数学知识。
4. 综合我们以Spark Streaming为切入点。


二 对Spark Streaming的理解

Spark Streaming是流式计算,当今时代是一个流处理时代,一切数据如果不是流式处理, 或者数据不进行流式处理,都是无效的数据。

流式处理才是我们对大数据的初步印象,而不是批处理和数据挖掘,当然Spark强悍的地方在于,他的流式处理可以在线的直接使用机器学习、图计算、SparkSQL、Spark R的成果。

寻龙点穴,Spark就是龙脉,Spark Streaming就是穴位


三 通过降维的方式观察

把Batch Interval 放的足够大,比如1分钟1次,或者5分钟1次。


四 另类实验

(一)代码如下


   import org.apache.spark.SparkConf
   import org.apache.spark.streaming.{Seconds, StreamingContext}

   /**
     * 背景描述:在广告点击计费系统中,我们在线过滤掉黑名单的点击,进而保护广告商的利益,
     * 只进行有效的广告点击计费。或者在防刷评分(或者流量)系统,过滤掉无效的投票或者评分或者流量。
     * 实现技术:使用transform API直接基于RDD编程,进行join操作
     *
     * Created by Administrator on 2016/4/30.
     */
   object OnlineBlackListFilter {
     def main(args: Array[String]) {
       /**
         * 第一步:创建Spark的配置对象,设置Spark程序的运行时的配置信息
         * 例如说通过setMaster来设置程序要连接的spark集群的master的url,如果设置为
         * local, 则代表Spark程序在本地运行,特别适合于机器配置条件非常差
         * (例如只有1g的内存)的初学者
         */
       val conf = new SparkConf() //创建SparkConf对象
       conf.setAppName("OnlineBlackListFilter") //设置Spark应用程序的名称,在程序运行的监控界面可以看到名称
       //    conf.setMaster("local") //此时,程序在本地运行,不需要安装Spark集群
       conf.setMaster("spark://master:7077") //此时,程序在本地运行,不需要安装Spark集群

       val ssc = new StreamingContext(conf, Seconds(300))

       /**
         * 黑名单数据准备,实际上黑名单一般都是动态的,例如在Redis中或者数据库中,黑名单的生成往往有复杂的业务逻辑,
         * 具体情况算法不同,但是在SparkStreaming进行处理的时候每次都能够访问完整的信息
         *
         */
       val blackList = Array(("hadoop", true), ("mahout", true))
       val blackListRDD = ssc.sparkContext.parallelize(blackList, 8)

       val adsClickStream = ssc.socketTextStream("master", 9999)

       /**
         * 此处模拟的广告点击的每条数据的格式为:time、name
         * 此处map操作的结果是name, (time, name)的格式
         */
       val adsClickStreamFormatted = adsClickStream.map(ads =>(ads.split(" ")(1), ads))
       adsClickStreamFormatted.transform(userClickRDD =>{
         //通过leftOuterJoin操作既保留了左侧用户广告点击内容的RDD的所有内容,又获得了相应点击内容是否在黑名单中
         val joinedBlackListRDD = userClickRDD.leftOuterJoin(blackListRDD)
         val validClicked = joinedBlackListRDD.filter(joinedItem => {
           /**
             *进行filter过滤的时候,其输入元素是一个Tuple:(name,((time, name), boolean))
             * 其中第一个元素是黑名单的名称,第二个元素的第二个元素是进行leftOuterJoin的时候是否存在该值
             * 如果存在的话,表明当前广告点击是黑名单,需要过滤掉,否则的话则是有效点击内容;
             */
           if(joinedItem._2._2.getOrElse(false)){
             false
           } else {
             true
           }
         })
         validClicked.map(validClicked =>{ validClicked._2._1 })
       }).print()
       /**
         * 计算后的有效数据一般都会写入Kafka中,下游的计费系统会从Kafka中pull到有效数据进行计费
         */


       ssc.start()
       ssc.awaitTermination()
     }
   }

(二)启动nc -lk 9999 监听9999端口,输入数据

2016-05-01 mahout
2016-05-01 scala
2016-05-01 hadoop
2016-05-01 spark

(三)通过UI监控app运行情况

UI监控台

由上图可知,streaming由5个job共同运行,但是我们从逻辑代码来看只有一个job(print),所以streaming的运行job是逻辑上的.

可以看见Job 1 receiver的时间是1.5min, 从各个job所花的时间来看,整个应用运行的时间大部分时间是花在了receiver上,receiver是用来接受数据的.

综上:streaming是spark的一个应用程序,该程序能启动多个job,job的运行事件主要依赖于recevier.

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Zookeeper是一个分布式协调服务,而Paxos算法是Zookeeper用来实现分布式一致性的核心算法之一。Paxos算法的主要目的是在一个分布式系统中达成一致性,保证多台机器之间的数据一致性。下面是Paxos算法的原理及过程: 1. 基本概念: - Proposer:提出提案的角色,向Acceptor发送提案。 - Acceptor:接收提案的角色,可以接收多个Proposer的提案,并对提案进行投票。 - Learner:观察者角色,只能观察到接收到的提案,不能进行投票。 2. 运行过程: - 阶段1:Proposer向多个Acceptor发送编号为n的提案,请求Acceptor投票。如果Acceptor还没有接受过提案,就接受这个提案,否则拒绝这个提案。 - 阶段2:如果Proposer收到了多数Acceptor的回应,就会发送编号为n的提案给多数Acceptor,请求它们接受这个提案。当一个Acceptor接受提案后,就会发送一个回应给Proposer,提案被接受。 - 阶段3:如果Proposer收到了多数Acceptor的回应,就会将这个提案标记为已提交,然后通知Learner。Learner接收到这个提案后,就知道了这个提案已经被提交了。 3. 原理解释: - 在阶段1中,Proposer发送的提案是编号为n的提案,表示这个提案是第n次提出的。如果Acceptor还没有接受过提案,就接受这个提案,并且会把自己的编号告诉Proposer,以便Proposer知道多数Acceptor的编号。 - 在阶段2中,Proposer会向多数Acceptor发送编号为n的提案,请求它们接受这个提案。如果多数Acceptor接受这个提案,就代表这个提案已经被多数节点接受,达成了一致性。 - 在阶段3中,Proposer会将这个提案标记为已提交,并通知Learner。Learner接收到这个提案后,就知道了这个提案已经被提交了。 总之,Paxos算法通过投票的方式来达成一致性,同时也保证了分布式系统的可靠性和容错性。在Zookeeper中,通过Paxos算法实现分布式一致性,可以用于解决分布式锁、分布式队列等问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值