spark-streaming 读取kafka数据不丢失(一)

spark streaming 读取kafka的时候,数据丢失是一个很大的问题,streaming 通过direct方式读取kafka,提供了checkpoint方式去自己维护读取kafka的offset,将数据放到hdfs。
方式:

 def main(args: Array[String]) {

    def func(): StreamingContext ={
      val conf = new SparkConf().setAppName("streamingKafka").setMaster("local[2]")
      val sc = SparkContext.getOrCreate(conf)
      val ssc = new StreamingContext(sc,Seconds(5))

      ssc.checkpoint("hdfs://imedia-dev-web3:9000/BJJStreaming/checkpoint/test")
      val kafkaParams = Map(
        "zookeeper.connect" -> "192.168.225.15:2181,192.168.225.16:2181,192.168.225.17:2181",
        "group.id" -> "spark-streaming-test",
        "zookeeper.connection.timeout.ms" -> "4000")
      val topic = "hello"

      val topics = Set(topic)
      val brokers = "192.168.225.15:9092,192.168.225.16:9092,192.168.225.17:9092"
      val kafkaParam1s = Map[String, String]("metadata.broker.list" -> brokers, "serializer.class" -> "kafka.serializer.StringEncoder")
      // Create a direct stream
      val kafkaStream = KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder](ssc, kafkaParam1s, topics)
      kafkaStream.print()
      ssc
    }

    val ssc = StreamingContext.getOrCreate("hdfs://imedia-dev-web3:9000/BJJStreaming/checkpoint/test",func)
    ssc.start()
    `
sc.awaitTermination()

但是这样子有个问题,每当你的程序升级的时候,之前的checkpoint数据是不能使用的,否则会出现很多问题,类似task not Serializable等

这样子给程序升级带来了很大的烦恼,虽然有解决方式,就是读取kafka checkpoint的数据,来解决。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值