HBase回顾五、与Hive的集成

HBase回顾五、与Hive的集成

HBase与Hive的对比

1.Hive

(1) 数据仓库

Hive的本质其实就相当于将HDFS中已经存储的文件在Mysql中做了一个双射关系,以方便使用HQL去管理查询。

(2) 用于数据分析、清洗

Hive适用于离线的数据分析和清洗,延迟较高。

(3) 基于HDFS、MapReduce

Hive存储的数据依旧在DataNode上,编写的HQL语句终将是转换为MapReduce代码执行。

2.HBase

(1) 数据库

是一种面向列存储的非关系型数据库。

(2) 用于存储结构化和非结构化的数据

适用于单表非关系型数据的存储,不适合做关联查询,类似JOIN等操作。

(3) 基于HDFS

数据持久化存储的体现形式是Hfile,存放于DataNode中,被ResionServer以region的形式进行管理。

(4) 延迟较低,接入在线业务使用

面对大量的企业数据,HBase可以直线单表大量数据的存储,同时提供了高效的数据访问速度。

HBase与Hive集成的环境搭建

因为我们后续可能会在操作Hive的同时对HBase也会产生影响,所以Hive需要持有操作HBase的Jar,那么接下来拷贝Hive所依赖的Jar包(或者使用软连接的形式)。

export HBASE_HOME=/opt/module/hbase
export HIVE_HOME=/opt/module/hive

ln -s $HBASE_HOME/lib/hbase-common-1.3.1.jar  $HIVE_HOME/lib/hbase-common-1.3.1.jar
ln -s $HBASE_HOME/lib/hbase-server-1.3.1.jar $HIVE_HOME/lib/hbase-server-1.3.1.jar
ln -s $HBASE_HOME/lib/hbase-client-1.3.1.jar $HIVE_HOME/lib/hbase-client-1.3.1.jar
ln -s $HBASE_HOME/lib/hbase-protocol-1.3.1.jar $HIVE_HOME/lib/hbase-protocol-1.3.1.jar
ln -s $HBASE_HOME/lib/hbase-it-1.3.1.jar $HIVE_HOME/lib/hbase-it-1.3.1.jar
ln -s $HBASE_HOME/lib/htrace-core-3.1.0-incubating.jar $HIVE_HOME/lib/htrace-core-3.1.0-incubating.jar
ln -s $HBASE_HOME/lib/hbase-hadoop2-compat-1.3.1.jar $HIVE_HOME/lib/hbase-hadoop2-compat-1.3.1.jar
ln -s $HBASE_HOME/lib/hbase-hadoop-compat-1.3.1.jar $HIVE_HOME/lib/hbase-hadoop-compat-1.3.1.jar

在这里插入图片描述

同时在hive-site.xml中修改zookeeper的属性,如下:

<property>
  <name>hive.zookeeper.quorum</name>
  <value>hadoop102,hadoop103,hadoop104</value>
  <description>The list of ZooKeeper servers to talk to. This is only needed for read/write locks.</description>
</property>
<property>
  <name>hive.zookeeper.client.port</name>
  <value>2181</value>
  <description>The port of ZooKeeper servers to talk to. This is only needed for read/write locks.</description>
</property>

在这里插入图片描述

集成初体验

案例1:关联表的创建

**目标:**建立Hive表,关联HBase表,插入数据到Hive表的同时能够影响HBase表。

(1) 在Hive中创建表同时关联HBase

  • 需要指定存储的代理为HBaseStorageHandler

    STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
    
  • 需要指定hive/hbase表的映射关系

    WITH SERDEPROPERTIES ("hbase.columns.mapping" = ":key,info:ename,info:job,info:mgr,info:hiredate,info:sal,info:comm,info:deptno")
    TBLPROPERTIES ("hbase.table.name" = "hbase_emp_table");
    
CREATE TABLE hive_hbase_emp_table(
empno int,
ename string,
job string,
mgr int,
hiredate string,
sal double,
comm double,
deptno int)
STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
WITH SERDEPROPERTIES ("hbase.columns.mapping" = ":key,info:ename,info:job,info:mgr,info:hiredate,info:sal,info:comm,info:deptno")
TBLPROPERTIES ("hbase.table.name" = "hbase_emp_table");

在这里插入图片描述
发现报错,通过查找发现HBase与Hive的集成在hive的hive-hbase-handler-1.2.1.jar下无法兼容。所以需要重新编译:hive-hbase-handler-1.2.2.jar
在这里插入图片描述

编译过程

下载hive的1.2.1版本src安装包,解压并找到hbase-handler下的org目录
在这里插入图片描述

创建maven工程,然后将org文件夹放入java中 在这里插入图片描述

发现有很多依赖缺失,所以手动补充依赖 在这里插入图片描述

将编译后的lib路径放入,选择apply,ok 在这里插入图片描述

可以看到依赖问题解决了 在这里插入图片描述

然后将该项目/模块打成依赖jar包 在这里插入图片描述

重命名为需要重新编译的jar包名称 在这里插入图片描述 在这里插入图片描述 在这里插入图片描述在这里插入图片描述

编译成功 在这里插入图片描述

好像名字不大对,重命名一下,然后放到linux中的hive/lib 在这里插入图片描述

点击确定,OK

重新启动hive,然后创建表

CREATE TABLE hive_hbase_emp_table(
empno int,
ename string)
STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
WITH SERDEPROPERTIES ("hbase.columns.mapping" = ":key,info:ename")
TBLPROPERTIES ("hbase.table.name" = "hbase_emp_table");

为方便操作,减少了其余字段,只留一个empno和ename

在这里插入图片描述

观察hbase的表情况,发现同时多了一张表 在这里插入图片描述

关联成功

(2) 在Hive中创建临时中间表,用于load文件中的数据

  • 不能将数据直接load进Hive所关联HBase的那张表中,必须通过mapreduce作业导入数据
CREATE TABLE emp(
empno int,
ename string)
row format delimited fields terminated by '\t';

(3) 向Hive中间表中load数据

先准备数据vi /opt/module/datas/emp2.txt

1001    zhangsan
1002    lisi
1003    wangwu
load data local inpath '/opt/module/datas/emp2.txt' into table emp;

在这里插入图片描述

(4) 通过insert命令将中间表中的数据导入到Hive关联HBase的那张表中

hive> insert into table hive_hbase_emp_table select * from emp;

在这里插入图片描述
在这里插入图片描述

(5) 查看Hive关联的HBase表中是否已经成功的同步插入了数据

hbase> scan ‘hbase_emp_table’

在这里插入图片描述

案例2:使用hive分析HBase表中的数据

在案例1的基础上,我们已经在HBase中已经存储了某一张表hbase_emp_table,然后在Hive中创建一个外部表来关联HBase中的hbase_emp_table这张表,使之可以借助Hive来分析HBase这张表中的数据。

分步实现:

(1) 在Hive中创建外部表

CREATE EXTERNAL TABLE relevance_hbase_emp(
empno int,
ename string)
STORED BY 
'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
WITH SERDEPROPERTIES ("hbase.columns.mapping" = ":key,info:ename") 
TBLPROPERTIES ("hbase.table.name" = "hbase_emp_table"); 

在指定了关联后,所有在hbase_emp_table的数据都会被映射到这张表上 在这里插入图片描述

(2) 关联后就可以使用Hive函数进行一些分析操作了

select count(empno) from relevance_hbase_emp;
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值