flink 对接kafka写进hbase里(代码和pom)

该博客详细介绍了如何使用 Flink 进行实时数据处理,从 Kafka 消费数据并将其存储到 HBase 数据库中。首先,强调了在开始之前HBase 中必须存在目标表。接着,提供了项目的 Maven 依赖配置,确保所有必要的库都已包含。这是一个针对大数据实时流处理的实践案例。
摘要由CSDN通过智能技术生成

hbase 里必须有表,不会自己创建

import java.util.Properties

import org.apache.flink.api.common.serialization.SimpleStringSchema
import org.apache.flink.streaming.api.scala.{
   DataStream, StreamExecutionEnvironment}
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer08
import org.apache.hadoop.conf.Configuration
import org.apache.hadoop.hbase.{
   HBaseConfiguration, TableName}
import org.apache.hadoop.hbase.client.{
   Connection, ConnectionFactory, Put, Table}

object Test02 {
   

  def WriteHbase(x: String) = {
   
    val conf: Configuration = HBaseConfiguration.create()
    conf.set("hbase.zookeeper.quorum","node2:
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值