Spark Streaming-updateStateByKey以及基于缓存的实时wordcount程序

updateStateByKey操作可以让我们为每个key维护一份state,并持续不断的更新该state。

1、首先,要定义一个state,可以是任意的数据类型;

2、其次,要定义state更新函数——指定一个函数如何使用之前的state和新值来更新state。

对于每个batch,Spark都会为每个之前已经存在的key去应用一次state更新函数,无论这个key在batch中是否有新的数据。如果state更新函数返回none,那么key对应的state就会被删除。 当然对于每个新出现的key,也会执行state更新函数。

注意,updateStateByKey操作要求必须开启Checkpoint机制。

public class UpdateStateByKeyWordCount {

  public static void main(String[] args) {
    SparkConf conf = new SparkConf().setMaster("local[2]").setAppName("UpdateStateByKeyWordCount");
    JavaStreamingContext jssc = new JavaStreamingContext(conf, Durations.seconds(5));

    // 第一点,如果要使用updateStateByKey算子,就必须设置一个checkpoint目录,开启checkpoint机制
    // 这样的话才能把每个key对应的state除了在内存中有,那么是不是也要checkpoint一份
    // 因为你要长期保存一份key的state的话,那么spark streaming是要求必须用checkpoint的,以便于在
    // 内存数据丢失的时候,可以从checkpoint中恢复数据

    // 开启checkpoint机制,很简单,只要调用jssc的checkpoint()方法,设置一个hdfs目录即可
    jssc.checkpoint("hdfs://spark1:9000/wordcount_updateStateByKey");

    // 然后先实现基础的wordcount逻辑
    JavaReceiverInputDStream<String> lines = jssc.socketTextStream("localhost", 9999);

    JavaDStream<String> words = lines.flatMap(new FlatMapFunction<String, String>() {

      private static final long serialVersionUID = 1L;

      @Override
      public Iterable<String> call(String line) throws Exception {
        return Arrays.asList(line.split(" "));
      }

    });

    JavaPairDStream<String, Integer> pairs = words.mapToPair(

        new PairFunction<String, String, Integer>() {

          private static final long serialVersionUID = 1L;

          @Override
          public Tuple2<String, Integer> call(String word) throws Exception {
            return new Tuple2<String, Integer>(word, 1);
          }

        });

    // 到了这里,就不一样了,之前的话,是不是直接就是pairs.reduceByKey
    // 然后,就可以得到每个时间段的batch对应的RDD,计算出来的单词计数
    // 然后,可以打印出那个时间段的单词计数
    // 但是,有个问题,你如果要统计每个单词的全局的计数呢?
    // 就是说,统计出来,从程序启动开始,到现在为止,一个单词出现的次数,那么就之前的方式就不好实现
    // 就必须基于redis这种缓存,或者是mysql这种db,来实现累加

    // 但是,我们的updateStateByKey,就可以实现直接通过Spark维护一份每个单词的全局的统计次数
    JavaPairDStream<String, Integer> wordCounts = pairs.updateStateByKey(

        // 这里的Optional,相当于Scala中的样例类,就是Option,可以这么理解
        // 它代表了一个值的存在状态,可能存在,也可能不存在
        new Function2<List<Integer>, Optional<Integer>, Optional<Integer>>() {

          private static final long serialVersionUID = 1L;

          // 这里两个参数
          // 实际上,对于每个单词,每次batch计算的时候,都会调用这个函数
          // 第一个参数,values,相当于是这个batch中,这个key的新的值,可能有多个吧
          // 比如说一个hello,可能有2个1,(hello, 1) (hello, 1),那么传入的是(1,1)
          // 第二个参数,就是指的是这个key之前的状态,state,其中泛型的类型是你自己指定的
          @Override
          public Optional<Integer> call(List<Integer> values, Optional<Integer> state)
              throws Exception {
            // 首先定义一个全局的单词计数
            Integer newValue = 0;

            // 其次,判断,state是否存在,如果不存在,说明是一个key第一次出现
            // 如果存在,说明这个key之前已经统计过全局的次数了
            if (state.isPresent()) {
              newValue = state.get();
            }

            // 接着,将本次新出现的值,都累加到newValue上去,就是一个key目前的全局的统计
            // 次数
            for (Integer value : values) {
              newValue += value;
            }

            return Optional.of(newValue);
          }

        });

    // 到这里为止,相当于是,每个batch过来是,计算到pairs DStream,就会执行全局的updateStateByKey
    // 算子,updateStateByKey返回的JavaPairDStream,其实就代表了每个key的全局的计数
    // 打印出来
    wordCounts.print();

    jssc.start();
    jssc.awaitTermination();
    jssc.close();
  }
}

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值