Spark-ClickHouse-ES实时项目第八天-精确一次性消费保存偏移量

仓库位置

日志生成:https://github.com/SmallScorpion/gmall-mock.git
日志服务器:https://github.com/SmallScorpion/gmall-spark-ch-es-realtime.git

手动提交偏移量

  1. 第一次读取会加载Redis数据,若是redis中没有数据那么将消费kafka起始数据,经过业务计算保存到redis中
  2. 中间循环过程是业务到redis保存数据的过程
  3. 若中途宕机,重启进程服务都会读取redis偏移量位置进行消费
    在这里插入图片描述

OffsetManager

  /**
   * 把偏移量写入redis
   * @param topicName
   * @param groupId
   * @param offsetRanges
   */
  def saveOffset( topicName: String, groupId: String, offsetRanges: Array[OffsetRange] ): Unit = {


    val offsetKey = "offset:" + topicName + ":" + groupId

    // 转换结构 -> map
    val offsetMap: util.Map[String, String] = new util.HashMap()
    for (elem <- offsetRanges) {
      val partition: Int = elem.partition
      val untilOffset: Long = elem.untilOffset
      offsetMap.put( partition + "", untilOffset + "" )
      println( "写入分区:" + partition + ":" + elem.fromOffset + "--->" + elem.untilOffset )
    }

    // 写入redis
    if( offsetMap != null && offsetMap.size() > 0){
      val jedis: Jedis = RedisUtil.getJedisClient
      jedis.hmset( offsetKey,  offsetMap)
      jedis.close()
    }

  }

业务代码

// 得到本批次的偏移量的结束位置,用于更新redis中的偏移量
    var OffsetRanges: Array[OffsetRange] = Array.empty[OffsetRange]
    val InputGetOffsetDstream: DStream[ConsumerRecord[String, String]] =
        recordInputStream.transform { rdd =>
          // driver 执行
          OffsetRanges = rdd.asInstanceOf[HasOffsetRanges].offsetRanges
          rdd
    }
......
......
  // TODO 提交偏移量
      OffsetManager.saveOffset( topic, groupId, OffsetRanges )

代码测试

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值