http://www.cnblogs.com/linjiqin/archive/2013/03/06/2946212.html
1.hadoop版本:hadoop-1.1.1,HBase版本:hbase-0.94.3
2.到官方网站下载好hbase-0.94.3.tar.gz,解压hbase安装包到一个可用目录如(/home/hadoop/hbase-0.94.3/)
root@ubuntu:/home/hadoop# sudo tar zxvf hbase-0.94.3.tar.gz
设置hbase-0.94.3所在用户为hadoop,所在组为hadoop(root用户操作)
root@ubuntu:/home/hadoop# chown -R hadoop hbase-0.94.3
root@ubuntu:/home/hadoop# chgrp -R hadoop hbase-0.94.3
或者
root@ubuntu:/home/hadoop# chown -R hadoop:hadoop hbase-0.94.3
3.设置环境变量:在/etc/profile和/home/hadoop/.bashrc中配置添加(红色字体的)
#set java environment
HBASE_HOME=/home/hadoop/hbase-0.94.3
HIVE_HOME=/home/hadoop/hive-0.9.0
HADOOP_HOME=/home/hadoop/hadoop-1.1.1
JAVA_HOME=/home/hadoop/jdk1.7.0
PATH=$JAVA_HOME/bin:$HBASE_HOME/bin:$HIVE_HOME/bin:$HADOOP_HOME/bin:$PATH
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$HBASE_HOME/lib:$HIVE_HOME/lib:$JAVA_HOME/lib/tools.jar
export HBASE_HOME
export HADOOP_HOME
export JAVA_HOME
export HIVE_HOME
export PATH
export CLASSPATH
4.hbase配置:
在$HBASE_HOME/conf/hbase-env.sh中配置添加(红色字体的)
#set java environment
HBASE_HOME=/home/hadoop/hbase-0.94.3
HIVE_HOME=/home/hadoop/hive-0.9.0
HADOOP_HOME=/home/hadoop/hadoop-1.1.1
JAVA_HOME=/home/hadoop/jdk1.7.0
PATH=$JAVA_HOME/bin:$HBASE_HOME/bin:$HIVE_HOME/bin:$HADOOP_HOME/bin:$PATH
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$HBASE_HOME/lib:$HIVE_HOME/lib:$JAVA_HOME/lib/tools.jar
export HBASE_HOME
export HADOOP_HOME
export JAVA_HOME
export HIVE_HOME
export PATH
export CLASSPATH
如果想使用HBase自带的zookeeper,要添加export HBASE_MANAGES_ZK=true
在$HBASE_HOME/conf目录中,确保hbase-site中的hbase.rootdir的主机和端口号与$HADOOP_HOME/conf目录中core-site.xml中的fs.default.name的主机和端口号一致,添加如下内容:
<configuration> <property> <name>hbase.rootdir</name> <value>hdfs://192.168.11.157:54310/hbase</value> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <name>hbase.master</name> <value>192.168.11.157:54311</value> </property> <property> <name>hbase.zookeeper.quorum</name> <value>192.168.11.157</value> </property> </configuration>
5.先启动hadoop,再启动hbase:
hadoop@ubuntu:~/hadoop-1.1.1/bin$ ./start-all.sh #启动hadoop
hadoop@ubuntu:~/hadoop-1.1.1/bin$ jps #查看hadoop启动情况,确认DataNode,SecondaryNameNode,DataNode,JobTracker,TaskTracker全部启动
8163 DataNode
10343 Jps
8443 JobTracker
7990 NameNode
8615 TaskTracker
8358 SecondaryNameNode
hadoop@ubuntu:~/hbase-0.94.3/bin$ ./start-hbase.sh #确认hadoop完全启动后启动hbase
hadoop@ubuntu:~/hbase-0.94.3/bin$ jps #查看hbase启动情况,确认HQuorumPeer,HMaster,HRegionServer全部启动
8163 DataNode
10343 Jps
9060 HQuorumPeer
8443 JobTracker
9370 HRegionServer
7990 NameNode
9170 HMaster
8615 TaskTracker
8358 SecondaryNameNode
hadoop@ubuntu:~/hbase-0.94.3/bin$
hadoop@ubuntu:/home$ hbase -version #查看hbase版本,表示hbase安装成功
java version "1.7.0"
Java(TM) SE Runtime Environment (build 1.7.0-b147)
Java HotSpot(TM) Client VM (build 21.0-b17, mixed mode)
hadoop@ubuntu:/home$
注:hbase启动可能会出错导致失败,这时需要将$HADOOP_HOME/hadoop-core-*.*.*.jar和$HADOOP_HOME/lib目录下的commons-configuration-*.*.jar拷贝到$HBASE_HOME/lib目录下,删除$HBASE_HOME/lib目录下的hadoop-core-*.jar,避免版本冲突和不兼容。
http://download.csdn.net/download/suhuanzheng7784877/6469511
http://blog.csdn.net/flyingpig4/article/details/7818806