Flink 读写 HBase 总结

本文详细介绍了Flink 1.15.4版本与HBase 2.0.2之间的读写操作,包括Hbase shell创建表、Flink SQL的使用、参数配置等。同时,针对Hudi 0.13.0在kerberos环境下的兼容性问题进行了深入探讨,提出了五种解决方案,重点关注了配置加载的优先级和解决配置冲突的方法。
摘要由CSDN通过智能技术生成
FlinkSQL中如何关联Hbase大表,如果关联字段不是Hbase维表的rowkey,将会触发全表扫描。FlinkSQL的Hbase connector不会处理索引,所以我们可以采用自己维护索引表的方式来解决这个问题。具体实现方式可以参考Hbase二级索引的知识。[1] 在FlinkSQL中,我们可以通过Flink HBase SQL Connector从HBase读取维度数据,进行数据补全。首先需要引入相关依赖,如下所示: ```xml <dependency> <groupId>org.apache.flink</groupId> <artifactId>flink-connector-hbase-2.2_${scala.binary.version}</artifactId> <version>${flink.version}</version> </dependency> ``` 然后可以注册Kafka表和Hbase表,示例如下: ```sql CREATE TABLE fact( key STRING, value1 STRING, proctime AS PROCTIME() ) WITH ( 'connector' = 'kafka', 'topic' = 'test-hb', 'properties.bootstrap.servers' = 'localhost:9092', 'properties.group.id' = 'testGroup', 'scan.startup.mode' = 'latest-offset', 'format' = 'json' ); CREATE TABLE hb_stream( rowkey String, cf ROW<age String, name String>, PRIMARY KEY (rowkey) NOT ENFORCED ) WITH ( 'connector' = 'hbase-2.2', 'table-name' = 'test', 'zookeeper.quorum' = 'localhost:12181' ); ``` 通过以上配置,我们可以在FlinkSQL中使用Hbase维表进行关联操作。[2] 在实时数据开发中,通常会使用Spark或Flink消费Kafka数据流,并与外部数据库(如Hbase、MySQL等)进行维表关联。如果外部数据库中既包含维度数据,又包含大量的事实数据,并且这些数据更新频繁且数据量巨大,我们需要选择一个适合的外部数据库来支持实时场景的需求。Hbase是一个可以满足海量数据高效读写性能的外部数据库,因此在这种情况下可以选择使用Hbase作为支持。[3]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

董可伦

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值