通过案例对SparkStreaming 透彻理解-1

Spark在 Spark Core 之上提供了很多面向不同使用场景的高层API。比如 Spark StreamingSpark SQLGraphX 、MLlib

 

选择spark streaming 做为源码定制的出发点的原因:

  1. 从依赖的专业知识上讲,相对于 其他API ,无需引入过多的专业领域的依赖知识。

  2. 从技术层面上讲,是在原有Spark Core基础上 升了一维。而这是Streaming特有的。

  3. 实时流处理是使用场景最广阔的,是最优吸引力的。

  4. 可以在Streaming处理后,调用Spark兄弟框架,如MLlib、SparkSQL

  5. Streaming 是最复杂的,因为数据一直在变动。是挑战最大的。

因此,搞定Spark Streaming之后,再学其他API,就类似《三体》中的降维打击一样,很轻松即可理解。

Streaming因为多了感知数据的逻辑,因此更像是Spark上的一个应用程序。

 

下面实战演示,实现从源源不断的输入流中过滤掉黑名单中的数据。

import org.apache.spark.streaming.{Durations, StreamingContext}
import org.apache.spark.{SparkConf, SparkContext}

object BlackListFilterSelfScala {

  def main(args: Array[String]) {

    val sparkConf = new SparkConf().
      setAppName("BlackListFilterSelfScala").
      setMaster("spark://master:7077")

    val sc = new SparkContext(sparkConf)

    /**
      * 给定默认的黑名单,此数据也可以从其他数据源动态获取
      */
    val black_list = sc.parallelize(Array("fail", "sad")).
      map(black_word => (black_word, black_word))

    /**
      * 指定checkpoint
      */
    sc.setCheckpointDir("hdfs://master:9000/library/streaming/black_list_filter/")
    val ssc = new StreamingContext(sc, Durations.seconds(30))

    /**
      * 输入格式:关键字1,关键字2,...
      */
    val input_word = ssc.socketTextStream("localhost", 9999)

    val flattenWord = input_word.flatMap(_.split(" ")).
      map(row => {
        (row, row)
      })

    val not_black_word = flattenWord.transform(fw => {
      fw.leftOuterJoin(black_list). // 左连接
        filter(_._2._2.isEmpty). // 将黑名单中的过滤掉
        map(_._1) // 只返回关键字
    })

    not_black_word.print // 输出

    ssc.start
    ssc.awaitTermination
    sc.stop

  }

}

部署到集群环境中,另起命令行:

131348_exSK_120395.png

输出:

131446_giQs_120395.png

输入的said和fail 被过滤i到了哦。成功。

成功输出后咱们马上结束程序,使之只执行一次。便于之后分析。

再到 http://master:8080/ 中查看下详细内容

132007_NR4H_120395.png

点击Completed Applications 的Name中 看下:

132135_PNfN_120395.png

我们的逻辑很简单,只是创建了一个黑名单,并将流进来的数据过滤掉黑名单中的关键字。

并且咱们的批处理只执行一次之后就马上结束了。不存在多次执行的情况。那为什么会有这么多的job呢?

132616_i05w_120395.png

带着疑问,我们看看每个job中都些什么鬼。

 

133348_1C6Y_120395.png

134318_gCo8_120395.png此处可见,第一个job0是生产黑名单的job。但是代码里并没有reduceByKey。哪来的呢?此处留一个悬念。

再看看Job1

133350_L58M_120395.png

142611_nyz6_120395.png

原来job1是专门用来接受数据的。接收数据的Receiver也专门有一个job。这个任务运行了28S,咱们任务的间隔是30S,并不是28S。疑问来了。

不过至少可以知道,数据是通过在Executor上运行job的方式来接收的。

133351_L2KT_120395.png

Job2一看就知道是我们的业务逻辑。

133352_Ed7e_120395.png

这里为什么重复了呢?

让我们尽请期待后续的讲解。

 

让我们再看看DStream,DStream是离散流;可以认为数据像水龙头中流出的水,DStream是下面的一个水桶,在设定的时间间隔内换一个空桶,之前的水桶取走,交给下游流水线处理(业务处理)。

此处可以看到,只是按设置的时间来触发换水桶,换句话说,只受时间维度的影响,因为,时间对所有的业务理解都是一样的,此设计是超棒的解耦。

转载于:https://my.oschina.net/corleone/blog/668737

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值