使用场景:项目部分会使用到从 Kafka 消费数据,然后存储到 HBase 数据库,使用的是HBase Java API。
1.环境准备:
新建项目后在 pom.xml 中添加依赖
<dependency>
<groupId>org.apache.hbase</groupId>
<artifactId>hbase-client</artifactId>
<version>1.2.0-cdh5.14.2</version>
</dependency>
<dependency>
<groupId>org.apache.hbase</groupId>
<artifactId>hbase-common</artifactId>
<version>1.2.0-cdh5.14.2</version>
</dependency>
<dependency>
<groupId>org.apache.hbase</groupId>
<artifactId>hbase-server</artifactId>
<version>1.2.0-cdh5.14.2</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-common</artifactId>
<version>2.6.0-cdh5.14.2</version>
</dependency>
2.HBase API
(1)获取Configuration对象
package com.lyx.hbase.util;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.hbase.HBaseConfiguration;
/**
* @author lyx
*/
public class HBaseConfigUtil {
/**
* 获取配置信息类,需要指定 hbase-site.xml 和 core-site.xml
* 也可以通过相应的属性进行配置
* @return
*/
public static Configuration getHBaseConfiguration() {
Configuration configuration = HBaseConfiguration.create();
//configuration.set("hbase.zookeeper.quorum", "localhost");
//configuration.set("hbase.zookeeper.property.clientPort", "2181");
//configuration.set("hbase.master","192.168.228.152:16000");
// 我们也可以集群环境中的配置文件中读取配置信息。
configuration.addResource(new Path("/etc/hbase/conf/hbase-site.xml"));
configuration.addResource(new Path("/etc/hadoop/conf/core-site.xml"));
return configuration;
} }
(2)Java API操作
将工程打成fat包
运行命令:
java -cp jar 包 运行主类