spark消费kafka导入mysql_GitHub - fcvane/KafkaToSparkToKudu: SparkStreaming消费Kafka消息队列数据,实时写入Kudu列存数据库。...

该博客介绍了如何使用Spark Streaming从Kafka消息队列消费数据,并实时写入Kudu列存数据库。根据Kafkaoffset的存储方式(ZooKeeper、本地文件或Kafka自身存储),调用Spark提交的方式有所不同。文中提到了不同存储方式的调用示例,并提及后续可能的性能提升措施,但目前仅为模板,尚未实现完整的参数调用和配置实例化。
摘要由CSDN通过智能技术生成

KafkaToSparkToKudu

#实时流数据同步

SparkStreaming消费Kafka消息队列数据,实时写入Kudu列存数据库。

#调用方式

根据Kafka offset存储方式的不同,调用方式也不同。

##Kafka offset 存储方式有以下三种:

###1.ZooKeeper存储

zkCli.sh -server bigdata04:2181,bigdata05:2181,bigdata06:2181,bigdata07:2181,bigdata08:2181

ls /oggoffset

get /oggoffset/0

####使用zk存储和读取采用以下方式调用:

spark-submit

--master local[*]

--class ConsumerMain

/home/ConsumerMain.jar zk

###2.本地文件存储

存储位置在 ./files/offset.log

####调用方式:

spark-submit

--master local[*]

--class ConsumerMain

/home/ConsumerMain.jar local

###3.新版本Kafka(0.10及以上)自身存储

自身存储不需要专门编写读取Kafka offset的方法

####调用方式(不带参数):

spark-submit

--master local[*]

--class ConsumerMain

--conf spark.streaming.stopGracefullyOnShutdown=true

--conf spark.streaming.backpressure.enabled=true

--conf spark.streaming.backpressure.initialRate=5000

--conf spark.streaming.kafka.maxRatePerPartition=2000

/home/ConsumerMain.jar

#后续提升

###仅供参考

现阶段只是模板,暂未实现正常的参数调用和配置实例化。

--files /home/kafka.keystore,/home/kafka.truststore Kafka SSL认证

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值