hbase 里必须有表,不会自己创建
import java.util.Properties
import org.apache.flink.api.common.serialization.SimpleStringSchema
import org.apache.flink.streaming.api.scala.{
DataStream, StreamExecutionEnvironment}
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer08
import org.apache.hadoop.conf.Configuration
import org.apache.hadoop.hbase.{
HBaseConfiguration, TableName}
import org.apache.hadoop.hbase.client.{
Connection, ConnectionFactory, Put, Table}
object Test02 {
def WriteHbase(x: String) = {
val conf: Configuration = HBaseConfiguration.create()
conf.set("hbase.zookeeper.quorum","node2:

该博客详细介绍了如何使用 Flink 进行实时数据处理,从 Kafka 消费数据并将其存储到 HBase 数据库中。首先,强调了在开始之前HBase 中必须存在目标表。接着,提供了项目的 Maven 依赖配置,确保所有必要的库都已包含。这是一个针对大数据实时流处理的实践案例。
最低0.47元/天 解锁文章
1万+

被折叠的 条评论
为什么被折叠?



