1、Zookeeper 正常部署
首先保证 Zookeeper 集群的正常部署,并启动之:
[hadoop@Master zookeeper-3.4.10]$ bin/zkServer.sh start
[hadoop@Slave1 zookeeper-3.4.10]$ bin/zkServer.sh start
[hadoop@Slave2 zookeeper-3.4.10]$ bin/zkServer.sh start
2、Hadoop 正常部署
Hadoop 集群的正常部署并启动:
[hadoop@Master]$ start-dfs.sh
[hadoop@Master]$ start-yarn.sh
[hadoop@Master]$ mr-jobhistory-daemon.sh start historyserver
3. HBase 的解压
解压 Hbase 到指定目录:
[hadoop@Master]$ tar -zxvf hbase-1.3.1-bin.tar.gz -C
/home/hadoop/
4. HBase 的配置文件
修改 HBase 对应的配置文件。
1)hbase-env.sh 修改内容:
export JAVA_HOME=/opt/module/jdk1.6.0_144
export HBASE_MANAGES_ZK=false
2)hbase-site.xml 修改内容:
hbase.rootdir
hdfs://hadoop102:9000/HBase
hbase.cluster.distributed
true
<property>
<name>hbase.master.port</name>
<value>16000</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>hadoop102,hadoop103,hadoop104</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/opt/module/zookeeper-3.4.10/zkData</value>
</property>
3)修改regionservers:
Master
Slave1
Slave2
4)软连接 hadoop 配置文件到 HBase:
[hadoop@Master module]$ ln -s /usr/local/hadoop/etc/hadoop/core-site.xml /home/hadoop/hbase/conf/coresite.xml
[hadoop@Master module]$ ln -s /usr/local/hadoop/etc/hadoop/hdfs-site.xml /home/hadoop/hbase/conf/hdfssite.xml
5. HBase 远程发送到其他集群
[hadoop@Master]$ scp -r hbase/ Slave1:/home/hadoop/
[hadoop@Master]$ scp -r hbase/ Slave1:/home/hadoop/
6 HBase 服务的启动
启动
[hadoop@Master hbase]$ bin/start-hbase.sh
对应的停止服务:
[hadoop@Master hbase]$ bin/stop-hbase.sh