Kafka持久化至Hive,目前搜到大致有如下几种方案

1、HiveKa : Apache Hive's storage handler that adds support in Apache Hive to query data from Apache Kafka

https://github.com/HiveKa/HiveKa

2、Confluent Platform - HDFS Connector

http://kaimingwan.com/post/kafka/kafkachi-jiu-hua-shu-ju-dao-hdfsde-fang-fa
http://docs.confluent.io/2.0.0/connect/connect-hdfs/docs/index.html

3、camus或gobblin

http://www.aboutyun.com/thread-20701-1-1.html

gobblin  时间节点2019年06月20日

Gobblin supports Java 7 and up, but can only run on Hadoop 2.x

4,Flume

https://blog.csdn.net/qq_38690917/article/details/81430553

Flume处理   Kafka  -> HDFS  ->  通过Hive外部表

https://blog.csdn.net/Evankaka/article/details/55223894

5、Spark

https://blog.csdn.net/u012164361/article/details/79742201

  • 2
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值