Hbase自0.92之后开始支持Coprocessor(协处理器),旨在使用户可以将自己的代码放在regionserver上来运行,即将计算程序移动到数据所在的位置进行运算。这一点与MapReduce的思想一致。Hbase的Coprocess分为observer和endpoint两大类。简单说,observer相当于关系型数据库中的触发器,而endpoint则相当于关系型数据库中的存储过程。关于HBase Coprocessor的介绍网上有很多的文档,由于我也是刚刚学习,从很多好人贡献的文档上了解了很多。
这里记录一下自己在一个完全分布式系统上部署自定义的Coprocessor的过程,本文会介绍两种部署的方法:一种是在hbase-site.xml中配置;第二种是使用表描述符来配置(alter);前者会被所有的表的所有的region加载,而后者只会对指定的表的所有region加载。本文会结合自己的实验过程指出哪些地方为易错点。
首先,还是先来看下环境:
hadoop1.updb.com 192.168.0.101 Role:master
hadoop2.updb.com 192.168.0.102 Role:regionserver
hadoop3.updb.com 192.168.0.103 Role:regionserver
hadoop4.updb.com 192.168.0.104 Role:regionserver
hadoop5.updb.com 192.168.0.105 Role:regionserver
首先编码自定义的Coprocessor,该段代码摘自《Hbase权威指南》,只是修改了package的名字:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
|
/**
package org.apache.hbase.kora.coprocessor;
import java.io.IOException;
import java.util.List;
import org.apache.commons.logging.Log;
import org.apache.commons.logging.LogFactory;
import org.apache.hadoop.hbase.KeyValue;
import org.apache.hadoop.hbase.client.Get;
import org.apache.hadoop.hbase.coprocessor.BaseRegionObserver;
import org.apache.hadoop.hbase.coprocessor.ObserverContext;
import org.apache.hadoop.hbase.coprocessor.RegionCoprocessorEnvironment;
import org.apache.hadoop.hbase.regionserver.HRegion;
import org.apache.hadoop.hbase.util.Bytes;
}
|
编码完成后需要将该类编译并打成jar包,类名上右击--Export,弹出如下窗口
选择JAR file,然后Next,出现如下窗口
指定jar文件的保存路径,然后finish,就完成了RegionObserverExample类的编译和打包,接下来就需要将打好的jar文件使用ftp的方式上传到hbase集群的master服务器上,这里为hadoop1。
1
2
3
4
5
6
7
8
9
|
## 已经上传到hadoop1上
## 由于是完全分布式系统,为了方便管理,我们将jar包存放到hadoop hdfs的根目录下的jars目录下
## OK,验证已经上传成功
[grid@hadoop1 ~]$ hdfs dfs -ls /jars
Found 1 items
-rw-r--r-- 4 grid supergroup 3884 2014-11-15 04:46 /jars/RegionObserverExample.jar
|
然后需要修改hbase的hbase-env.sh、hbase-site.xml两个配置文件
1
2
3
4
5
6
7
8
9
|
## 首先修改hbase-env.sh中的这行,将存放Coprocessor jar文件的目录添加到Hbase的classpath中
## 然后修改hbase-site.xml文件,添加一个选项
|
在master上修改配置文件完成之后,将修改后的文件scp到其他个regionserver上,然后重启hbase使配置生效。重启之后来看是否能够正确的触发
1
2
3
4
5
6
7
8
9
10
|
## 使用get命令从kora表中取rowkey为@@@GETTIME@@@的行
COLUMN CELL
1 row(s) in 0.0420 seconds
## 将列值转化为uninx 时间
=> Sat Nov 15 04:42:54 +0800 2014
## 从上面的测试中看出,我们自定义的Coprocessor已经成功的部署到分布式系统中了。
|
需要留意的是在hbase-site.xml配置的Coprocessor默认是会被每张表的每个region加载。如果只想要某个表使用这个observer coprocessor,就需要使用表描述符的加载方式,这种方式同样的需要修改hbase-env.sh将jar包路径添加到hbase的classpath中去,与上面不同的是不用在hbase-site.xml中设置Coprocessor,如下
1
2
3
4
5
6
7
8
9
10
11
12
13
|
## 看hbase-env.sh的配置
## 注释掉hbase-site.xml中的Coprocessor的配置
[grid@hadoop1 ~]$ tail -7 /opt/hbase-0.98.4-hadoop2/conf/hbase-site.xml
<!--
</configuration>
|
在hbase shell中使用alter命令来为kora表来设定Coprocessor
1
2
3
4
5
6
7
8
9
10
11
|
## 由于一定设置了classpath,所以可以忽略jar file location,如下:
0/1 regions updated.
1/1 regions updated.
Done.
0 row(s) in 2.5670 seconds
|
设置成功,decribe下表
1
2
3
4
5
6
7
|
DESCRIPTION ENABLED
1 row(s) in 0.0580 seconds
|
ok,已经设置成功,下面来测试一下
1
2
3
4
5
6
7
8
9
|
## kora表,指定了Coprocessor
COLUMN CELL
1 row(s) in 0.0360 seconds
## testtable,没有指定Coprocessor
COLUMN CELL
0 row(s) in 0.0180 seconds
|
需要注意的是,Coprocessor的优先级有SYSTEM和USER两种,SYSTEM优先于USER加载。使用表描述符设置Coprocessor时,不要设置优先级这一项,否则无法成功触发,如
1
| |
虽然也能成功设置Coprocessor,但是测试时是无法触发的,在上述环境中亲自测试过的,而且hbase帮助文档中优先级这个项用户不是必输项,只有类名是必输项。我们可以根据自己的需求来选择使用哪种方式来配置自己的Coprocessor。