转载自:转载自工学1号馆
对于全分布式的HBase安装,需要通过hbase-site.xml文档来配置本机的HBase特性,由于各个HBase之间通过zookeeper来进行通信,因此需要维护一组zookeeper系统,关于zookeeper的安装使用,参考《 hadoop2.6完全分布式安装zookeeper3.4.6 》
1、安装Hbase(1)下载hbase版本
下载地址: http://www.apache.org/dyn/closer.cgi/hbase/ ,在此路径下选择相应的版本下载,本次安装下载hadoop1.1.0.1版本
(2)解压hbase-1.1.0.1-bin.tar.gz
hadoop@master:~/opt$ tar zxvf hbase-1.1.0.1-bin.tar.gz
(3)将hbase添加到环境变量中
编辑环境变量:sudo vim /etc/profile
export HBASE_HOME=/home/hadoop/opt/hbase-1.1.0.1
export PATH=$HBASE_HOME/bin:$PATH
更新环境变量:source /etc/profile
分发环境变量:
scp -r /etc/profile root@slaver1:/etc/profile
scp -r /etc/profile root@slaver2:/etc/profile
(4)修改配置文件修改hbase-env.sh
export JAVA_HOME=/usr/lib/jdk1.7.0_07
export HBASE_CLASSPATH=/home/hadoop/opt/hadoop-2.6.0/etc/hadoop
修改hbase-site.xml
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>master,slaver1,slaver2</value>
</property>
<property>
<name>hbase.tmp.dir</name>
<value>/home/hadoop/opt/hbase-1.1.0.1/tmp</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>${hbase.tmp.dir}/zookeeper</value>
</property>
</configuration>
修改regionservers,将文件内容设置为:
master
slaver1
slaver2
分发hbase到每个节点
scp -r ~/opt/hbase-1.1.0.1 hadoop@slaver1:~/opt/
scp -r ~/opt/hbase-1.1.0.1 hadoop@slaver2:~/opt/
2、运行HBase
启动hbase时要确保hdfs已经启动,HBase的启动顺序为:HDFS->Zookeeper->HBase,运行命令如下:
hadoop@master:~/opt/hadoop-2.6.0$ bin/hdfs namenode -format
hadoop@master:~/opt/hadoop-2.6.0$ sbin/start-dfs.sh
hadoop@master:~/opt/zookeeper-3.4.6$ ./zkServer.sh start
hadoop@master:~/opt/hbase-1.1.0.1$ start-hbase.sh
启动成功后集群会多出如下进程:
hadoop@master:~/opt/hbase-1.1.0.1$ jps
8145 SecondaryNameNode
7940 NameNode
8550 HRegionServer
5719 QuorumPeerMain
8600 Jps
8424 HMaster
运行成功后可以看到QuorumPeerMain进程
再看看slaver1的进程:
hadoop@slave1:~/opt/zookeeper-3.4.6/bin$ jps
6915 QuorumPeerMain
7012 HRegionServer
7268 Jps
6823 DataNode
进入HBase Shell
hadoop@master:~/opt/hbase-1.1.0.1$ ./bin/hbase shell
输入status命令:
hbase(main):001:0> status
出现错误:
2015-05-25 20:26:14,949 ERROR [main] client.ConnectionManager$HConnectionImplementation: Can’t get connection to ZooKeeper: KeeperErrorCode = ConnectionLoss for /hbase
设置 conf/hbase-env.sh文件中的HBASE_MANAGES_ZK 属性为 true
问题搞定!
hbase(main):001:0> status
2 servers, 0 dead, 1.0000 average load
- 进入hbase shell console
$HBASE_HOME/bin/hbase shell
如果有kerberos认证,需要事先使用相应的keytab进行一下认证(使用kinit命令),认证成功之后再使用hbase shell进入可以使用whoami命令可查看当前用户hbase(main)>
whoami
- 表的管理
1)查看有哪些表hbase(main)> list
2)创建表
# 语法:create <table>, {NAME => <family>, VERSIONS => <VERSIONS>}
# 例如:创建表t1,有两个family name:f1,f2,且版本数均为2
hbase(main)> create
't1'
,{NAME =>
'f1'
, VERSIONS => 2},{NAME =>
'f2'
, VERSIONS => 2}
也可以缩写成 create 't1','f1','f2'
3)删除表
分两步:首先disable,然后drop
例如:删除表t1hbase(main)> disable
't1'
hbase(main)> drop
't1'
4)查看表的结构
# 语法:describe <table>
# 例如:查看表t1的结构
hbase(main)> describe
't1'
5)修改表结构
修改表结构必须先disable# 语法:alter 't1', {NAME => 'f1'}, {NAME => 'f2', METHOD => 'delete'}
# 例如:修改表test1的cf的TTL为180天
hbase(main)> disable
'test1'
hbase(main)> alter
'test1'
,{NAME=>
'body'
,TTL=>
'15552000'
},{NAME=>
'meta'
, TTL=>
'15552000'
}
hbase(main)>
enable
'test1'
- 权限管理
1)分配权限# 语法 : grant <user> <permissions> <table> <column family> <column qualifier> 参数后面用逗号分隔
# 权限用五个字母表示: "RWXCA".
# READ('R'), WRITE('W'), EXEC('X'), CREATE('C'), ADMIN('A')
# 例如,给用户‘test'分配对表t1有读写的权限,
hbase(main)> grant
'test'
,
'RW'
,
't1'
2)查看权限
# 语法:user_permission <table>
# 例如,查看表t1的权限列表
hbase(main)> user_permission
't1'
3)收回权限
# 与分配权限类似,语法:revoke <user> <table> <column family> <column qualifier>
# 例如,收回test用户在表t1上的权限
hbase(main)> revoke
'test'
,
't1'
- 表数据的增删改查
1)添加数据# 语法:put <table>,<rowkey>,<family:column>,<value>,<timestamp>
# 例如:给表t1的添加一行记录:rowkey是rowkey001,family name:f1,column name:col1,value:value01,timestamp:系统默认
hbase(main)> put
't1'
,
'rowkey001'
,
'f1:col1'
,
'value01'
用法比较单一。
2)查询数据
a)查询某行记录# 语法:get <table>,<rowkey>,[<family:column>,....]
# 例如:查询表t1,rowkey001中的f1下的col1的值
hbase(main)> get
't1'
,
'rowkey001'
,
'f1:col1'
# 或者:
hbase(main)> get
't1'
,
'rowkey001'
, {COLUMN=>
'f1:col1'
}
# 查询表t1,rowke002中的f1下的所有列值
hbase(main)> get
't1'
,
'rowkey001'
b)扫描表
# 语法:scan <table>, {COLUMNS => [ <family:column>,.... ], LIMIT => num}
# 另外,还可以添加STARTROW、TIMERANGE和FITLER等高级功能
# 例如:扫描表t1的前5条数据
hbase(main)> scan
't1'
,{LIMIT=>5}
c)查询表中的数据行数
# 语法:count <table>, {INTERVAL => intervalNum, CACHE => cacheNum}
# INTERVAL设置多少行显示一次及对应的rowkey,默认1000;CACHE每次去取的缓存区大小,默认是10,调整该参数可提高查询速度
# 例如,查询表t1中的行数,每100条显示一次,缓存区为500
hbase(main)> count
't1'
, {INTERVAL => 100, CACHE => 500}
3)删除数据
a )删除行中的某个列值# 语法:delete <table>, <rowkey>, <family:column> , <timestamp>,必须指定列名
# 例如:删除表t1,rowkey001中的f1:col1的数据
hbase(main)> delete
't1'
,
'rowkey001'
,
'f1:col1'
注:将删除改行f1:col1列所有版本的数据
b )删除行# 语法:deleteall <table>, <rowkey>, <family:column> , <timestamp>,可以不指定列名,删除整行数据
# 例如:删除表t1,rowk001的数据
hbase(main)> deleteall
't1'
,
'rowkey001'
c)删除表中的所有数据
# 语法: truncate <table>
# 其具体过程是:disable table -> drop table -> create table
# 例如:删除表t1的所有数据
hbase(main)> truncate
't1'
- Region管理
1)移动region# 语法:move 'encodeRegionName', 'ServerName'
# encodeRegionName指的regioName后面的编码,ServerName指的是master-status的Region Servers列表
# 示例
hbase(main)>move
'4343995a58be8e5bbc739af1e91cd72d'
,
'db-41.xxx.xxx.org,60020,1390274516739'
2)开启/关闭region
# 语法:balance_switch true|false
hbase(main)> balance_switch
3)手动split
# 语法:split 'regionName', 'splitKey'
4)手动触发major compaction
#语法:
#Compact all regions in a table:
#hbase> major_compact 't1'
#Compact an entire region:
#hbase> major_compact 'r1'
#Compact a single column family within a region:
#hbase> major_compact 'r1', 'c1'
#Compact a single column family within a table:
#hbase> major_compact 't1', 'c1'
- 配置管理及节点重启
1)修改hdfs配置
hdfs配置位置:/etc/hadoop/conf# 同步hdfs配置
cat
/home/hadoop/slaves
|
xargs
-i -t
scp
/etc/hadoop/conf/hdfs-site
.xml hadoop@{}:
/etc/hadoop/conf/hdfs-site
.xml
#关闭:
cat
/home/hadoop/slaves
|
xargs
-i -t
ssh
hadoop@{}
"sudo /home/hadoop/cdh4/hadoop-2.0.0-cdh4.2.1/sbin/hadoop-daemon.sh --config /etc/hadoop/conf stop datanode"
#启动:
cat
/home/hadoop/slaves
|
xargs
-i -t
ssh
hadoop@{}
"sudo /home/hadoop/cdh4/hadoop-2.0.0-cdh4.2.1/sbin/hadoop-daemon.sh --config /etc/hadoop/conf start datanode"
2)修改hbase配置
hbase配置位置:# 同步hbase配置
cat
/home/hadoop/hbase/conf/regionservers
|
xargs
-i -t
scp
/home/hadoop/hbase/conf/hbase-site
.xml hadoop@{}:
/home/hadoop/hbase/conf/hbase-site
.xml
# graceful重启
cd
~
/hbase
bin
/graceful_stop
.sh --restart --reload --debug inspurXXX.xxx.xxx.org