(五)Hive与Hbase整合

Hive与Hbase整合

一.Hive与Hbase对比

在这里插入图片描述
    https://blog.csdn.net/qq_32736999/article/details/83832376

    Hive与HBase各自有着不同的功能,但是归根接地,Hive与HBase的数据最终都是存储在HDFS上面的,为了节省磁盘的存储空间,一般不会将一份数据存储到多个地方。所以,我们可以直接将数据存入HBase,然后通过Hive整合HBase直接使用SQL语句分析HBase里面的数据即可。

二Hive与Hbase整合

需求一:将hive分析结果的数据,保存到HBase当中去

1.拷贝hbase的五个依赖jar包到hive的lib目录下

hbase的jar包都在/export/servers/hbase-1.2.0-cdh5.14.0/lib,我们需要拷贝五个jar包名字如下:
	hbase-client-1.2.0-cdh5.14.0.jar         	  
	hbase-hadoop2-compat-1.2.0-cdh5.14.0.jar 
	hbase-hadoop-compat-1.2.0-cdh5.14.0.jar  
	hbase-it-1.2.0-cdh5.14.0.jar    
	hbase-server-1.2.0-cdh5.14.0.jar
hive安装在node03机器上,我们直接在node03执行以下命令,通过创建软连接的方式来进行jar包的依赖:

ln -s /export/servers/hbase-1.2.0-cdh5.14.0/lib/hbase-client-1.2.0-cdh5.14.0.jar  /export/servers/hive-1.1.0-cdh5.14.0/lib/hbase-client-1.2.0-cdh5.14.0.jar

ln -s /export/servers/hbase-1.2.0-cdh5.14.0/lib/hbase-hadoop2-compat-1.2.0-cdh5.14.0.jar  /export/servers/hive-1.1.0-cdh5.14.0/lib/hbase-hadoop2-compat-1.2.0-cdh5.14.0.jar

ln -s /export/servers/hbase-1.2.0-cdh5.14.0/lib/hbase-hadoop-compat-1.2.0-cdh5.14.0.jar  /export/servers/hive-1.1.0-cdh5.14.0/lib/hbase-hadoop-compat-1.2.0-cdh5.14.0.jar

ln -s /export/servers/hbase-1.2.0-cdh5.14.0/lib/hbase-it-1.2.0-cdh5.14.0.jar  /export/servers/hive-1.1.0-cdh5.14.0/lib/hbase-it-1.2.0-cdh5.14.0.jar

ln -s /export/servers/hbase-1.2.0-cdh5.14.0/lib/hbase-server-1.2.0-cdh5.14.0.jar /export/servers/hive-1.1.0-cdh5.14.0/lib/hbase-server-1.2.0-cdh5.14.0.jar

#Spark对Hbase-on-Hive的支持
ln -s /export/servers/hbase-1.2.0-cdh5.14.0/lib/guava-12.0.1.jar                         /export/servers/spark-2.2.0-bin-2.6.0-cdh5.14.0/jars/
ln -s /export/servers/hbase-1.2.0-cdh5.14.0/lib/htrace-core-3.2.0-incubating.jar         /export/servers/spark-2.2.0-bin-2.6.0-cdh5.14.0/jars/
ln -s /export/servers/hbase-1.2.0-cdh5.14.0/lib/hbase-common-1.2.0-cdh5.14.0.jar         /export/servers/spark-2.2.0-bin-2.6.0-cdh5.14.0/jars/
ln -s /export/servers/hbase-1.2.0-cdh5.14.0/lib/hbase-common-1.2.0-cdh5.14.0-tests.jar   /export/servers/spark-2.2.0-bin-2.6.0-cdh5.14.0/jars/
ln -s /export/servers/hbase-1.2.0-cdh5.14.0/lib/hbase-client-1.2.0-cdh5.14.0.jar         /export/servers/spark-2.2.0-bin-2.6.0-cdh5.14.0/jars/
ln -s /export/servers/hbase-1.2.0-cdh5.14.0/lib/hbase-server-1.2.0-cdh5.14.0.jar         /export/servers/spark-2.2.0-bin-2.6.0-cdh5.14.0/jars/
ln -s /export/servers/hbase-1.2.0-cdh5.14.0/lib/hbase-server-1.2.0-cdh5.14.0-tests.jar   /export/servers/spark-2.2.0-bin-2.6.0-cdh5.14.0/jars/
ln -s /export/servers/hbase-1.2.0-cdh5.14.0/lib/hbase-protocol-1.2.0-cdh5.14.0.jar       /export/servers/spark-2.2.0-bin-2.6.0-cdh5.14.0/jars/
ln -s /export/servers/hbase-1.2.0-cdh5.14.0/lib/metrics-core-2.2.0.jar                   /export/servers/spark-2.2.0-bin-2.6.0-cdh5.14.0/jars/
ln -s /export/servers/hive-1.1.0-cdh5.14.0/lib/hive-hbase-handler-1.1.0-cdh5.14.0.jar    /export/servers/spark-2.2.0-bin-2.6.0-cdh5.14.0/jars/

2.修改hive-site.xml配置文件

#修改node03上hive-site.xml配置文件
cd /export/servers/hive-1.1.0-cdh5.14.0/conf
vim hive-site.xml

#添加如下配置
<property>
	<name>hive.zookeeper.quorum</name>
	<value>node01,node02,node03</value>
</property>

<property>
	<name>hbase.zookeeper.quorum</name>
	<value>node01,node02,node03</value>
</property>

3.修改hive-env.sh配置文件

#修改node03上hive-env.sh的配置文件
cd /export/servers/hive-1.1.0-cdh5.14.0/conf
vim hive-env.sh

export HADOOP_HOME=/export/servers/hadoop-2.6.0-cdh5.14.0
export HBASE_HOME=/export/servers/hbase-1.2.0-cdh5.14.0
export HIVE_CONF_DIR=/export/servers/hive-1.1.0-cdh5.14.0/conf

4.进入hive客户端并建表

①进入hive客户端(要确保Zookeeper集群、Hadoop集群、Hbase集群已启动)

cd /export/servers/hive-1.1.0-cdh5.14.0/
nohup bin/hive --service metastore &
nohup bin/hive --service hiveserver2 2>&1 &
bin/beeline 
# !connect jdbc:hive2://node03:10000

②创建数据库和外部表

create database hbasedb;
use hbasedb;

create external table if not exists score(
  id int,
  cname string,
  score int
)row format delimited fields terminated by '\t' 
stored as textfile;

③准备数据

cd ~
vim hive_hbase.txt

1	zhangsan	80
2	lisi	60
3	wangwu	30
4	zhaoliu	70

④加载至表内

load data local inpath '/root/hive_hbase.txt' into table score;
select * from score;

5.创建hive管理表与hbase进行映射,hive管理表当中的数据,都会存储到hbase上面去。

create table hbase_score(
  id int,
  cname string,
  score int
)stored by 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
with serdeproperties("hbase.columns.mapping" = "cf:name,cf:score")
tblproperties("hbase.table.name" = "hbase_score");
# 建表成功后再hbase中也创建了一个hbase_score表

6.在hive客户端中向表中插入数据

insert overwrite table hbase_score select * from score;

select * from hbase_score;
#在hive中查询hbase_score结果为
+-----------------+--------------------+--------------------+--+
| hbase_score.id  | hbase_score.cname  | hbase_score.score  |
+-----------------+--------------------+--------------------+--+
| 1               | zhangsan           | 80                 |
| 2               | lisi               | 60                 |
| 3               | wangwu             | 30                 |
| 4               | zhaoliu            | 70                 |
+-----------------+--------------------+--------------------+--+

在hbase客户端中查结果为

#查询命令为
scan 'hbase_score'

#查询结果为
ROW           COLUMN+CELL
 1            column=cf:name, timestamp=1567094300857, value=zhangsan
 1            column=cf:score, timestamp=1567094300857, value=80
 2            column=cf:name, timestamp=1567094300857, value=lisi
 2            column=cf:score, timestamp=1567094300857, value=60
 3            column=cf:name, timestamp=1567094300857, value=wangwu
 3            column=cf:score, timestamp=1567094300857, value=30
 4            column=cf:name, timestamp=1567094300857, value=zhaoliu
 4            column=cf:score, timestamp=1567094300857, value=70
需求二:创建hive外部表,映射HBase中的表模型

1.进入HBase客户端,创建表并手动插入加载一些数据

create 'hbase_hive_score',{ NAME =>'cf'}
put 'hbase_hive_score','1','cf:name','zhangsan'
put 'hbase_hive_score','1','cf:score', '95'
put 'hbase_hive_score','2','cf:name','lisi'
put 'hbase_hive_score','2','cf:score', '96'
put 'hbase_hive_score','3','cf:name','wangwu'
put 'hbase_hive_score','3','cf:score', '97'

2.进入hive客户端,按如下命令创建hive外部表

create external table hbase_to_hive_score(
  id int,
  name string,
  score int
)stored by 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
with serdeproperties ("hbase.columns.mapping" = ":key,cf:name,cf:score")
tblproperties("hbase.table.name" = "hbase_hive_score");
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在Hadoop生态系统中,Hive是一个用于数据仓库和数据分析的开源工具,而HBase是一个开源的、分布式的、非关系型数据库。在某些情况下,因为版本不兼容或者依赖关系错误,可能会发生Hive整合HBase时出现IncompatibleClassChangeError(不兼容的类变更错误)。 IncompatibleClassChangeError是Java虚拟机(JVM)在运行期间抛出的错误,它表示在编译时使用的类与运行时使用的类发生了不兼容的变化。当Hive试图整合HBase时,如果Hive代码使用了HBase中的类,但实际运行时使用的HBase库与Hive编译时使用的库不兼容,就会出现这个错误。 解决这个问题的步骤如下: 1. 检查HBaseHive的版本是否兼容。在整合HiveHBase之前,确保使用的HBase版本与Hive版本兼容,并遵循它们之间的兼容性要求。 2. 检查依赖关系。在使用Hive整合HBase时,确保在Hive配置文件(hive-site.xml)中正确地设置了HBase相关的依赖。这包括指定HBase的主机名、端口号和表名等。 3. 检查类路径。确保在Hive运行期间正确配置了HBase的类路径,以便可以找到所需的HBase类。这可以通过检查HiveHBase的环境变量设置或者Hive的启动脚本来完成。 4. 更新HiveHBase的库。如果以上步骤都没有解决问题,可能需要升级HiveHBase的库版本,以确保它们之间的兼容性。 综上所述,Hive整合HBase时出现IncompatibleClassChangeError错误可能是由于版本不兼容或者依赖关系错误导致的。通过检查版本兼容性、依赖关系、类路径和库更新等措施,可以解决这个问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值