package com.caimou.utils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.HColumnDescriptor;
import org.apache.hadoop.hbase.HTableDescriptor;
import org.apache.hadoop.hbase.TableName;
import org.apache.hadoop.hbase.client.*;
import org.apache.hadoop.hbase.util.Bytes;
import java.io.IOException;
import java.util.Map;
import java.util.Set;
public class HbaseUtils2 {
private static Admin admin = null;
private static Connection conn = null;
static{
// 创建hbase配置对象
Configuration conf = HBaseConfiguration.create();
conf.set("hbase.rootdir","hdfs://192.168.1.122:9820/hbase");
//使用eclipse时必须添加这个,否则无法定位
conf.set("hbas
Flink实战(124):connector(二十一)hbase 读写 (二)
于 2021-01-31 21:48:57 首次发布
本文深入探讨了如何使用Flink连接器进行HBase数据的读取和写入操作,详细阐述了相关配置和步骤,是Flink与Hadoop生态结合应用的实践分享。
订阅专栏 解锁全文
1404

被折叠的 条评论
为什么被折叠?



