1 cd /home
2 将hbase-0.90.5.tar.gz 拷贝到此目录下
3 解压
tar xzvf hbase-0.90.5.tar.gz
cd hbase-0.90.5/conf
4 配置hbase-env.sh文件
vim hbase-env.sh
export JAVA_HOME=/home/mdrill/jdk1.7.0_15
export HBASE_CLASSPATH=/home/mdrill/hadoop-0.20.2/conf/ #hadoop配置路径
export HBASE_MANAGES_ZK=true #开启内置zk
5 配置hbase-site.xml文件
vim hbase-site.xml
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.rootdir</name>
<value>hdfs://mdrill10:9000/hbase</value>
</property>
<property>
<name>hbase.master</name>
<value>mdrill10:60000</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>mdrill10,mdrill9,mdrill8</value>
</property>
6 配置regionservers文件
vim regionservers
mdrill10
mdrill9
mdrill8
7 分发hbase到其它节点
scp -r ./hbase-0.90.5 root@mdrill9:/home
scp -r ./hbase-0.90.5 root@mdrill8:/home
8 先启动Hadoop的集群,然后启动Hbase的集群
在主节点上面启动
start-all.sh
bin/start-hbase.sh
如果出现如下错误:
Exception in thread "main" org.apache.hadoop.ipc.RPC$VersionMismatch: Protocol org.apache.hadoop.hdfs.protocol.ClientProtocol version mismatch. (client = 42, server = 41)
解决办法:
需要用{HADOOP_HOME}下的hadoop-0.20.2-core.jar 替换{HBASE_HOME}/lib目录下的hadoop-core-0.20-append-r1056497.jar.
cp /home/mdrill/hadoop-0.20.2/hadoop-0.20.2-core.jar ./lib/
9 web页面访问http://mdrill10:60010/
2 将hbase-0.90.5.tar.gz 拷贝到此目录下
3 解压
tar xzvf hbase-0.90.5.tar.gz
cd hbase-0.90.5/conf
4 配置hbase-env.sh文件
vim hbase-env.sh
export JAVA_HOME=/home/mdrill/jdk1.7.0_15
export HBASE_CLASSPATH=/home/mdrill/hadoop-0.20.2/conf/ #hadoop配置路径
export HBASE_MANAGES_ZK=true #开启内置zk
5 配置hbase-site.xml文件
vim hbase-site.xml
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.rootdir</name>
<value>hdfs://mdrill10:9000/hbase</value>
</property>
<property>
<name>hbase.master</name>
<value>mdrill10:60000</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>mdrill10,mdrill9,mdrill8</value>
</property>
6 配置regionservers文件
vim regionservers
mdrill10
mdrill9
mdrill8
7 分发hbase到其它节点
scp -r ./hbase-0.90.5 root@mdrill9:/home
scp -r ./hbase-0.90.5 root@mdrill8:/home
8 先启动Hadoop的集群,然后启动Hbase的集群
在主节点上面启动
start-all.sh
bin/start-hbase.sh
如果出现如下错误:
Exception in thread "main" org.apache.hadoop.ipc.RPC$VersionMismatch: Protocol org.apache.hadoop.hdfs.protocol.ClientProtocol version mismatch. (client = 42, server = 41)
解决办法:
需要用{HADOOP_HOME}下的hadoop-0.20.2-core.jar 替换{HBASE_HOME}/lib目录下的hadoop-core-0.20-append-r1056497.jar.
cp /home/mdrill/hadoop-0.20.2/hadoop-0.20.2-core.jar ./lib/
9 web页面访问http://mdrill10:60010/
可以看到节点启动的页面