前提:已解压hbase包改名后放于/usr/local/src
已启动zookeeper
vi /etc/profile
export HBASE_HOME=/usr/local/src/hbase
export PATH=$PATH:${HBASE_HOME}/bin
source /etc/profile
cd /usr/local/src/hbase/conf/
vi hbase-env.sh
export JAVA_HOME=/usr/local/src/jdk
export HBASE_MANAGES_ZK=false
最后一行添加
export HBASE_CLASSPATH=/usr/local/src/hadoop
vi hbase-site.xml
<configuration>
<property>
#作为HBase的底层存储HDFS上的路径
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
#HBase的端口
<name>hbase.master.info.port</name>
<value>60010</value>
</property>
<property>
#zookeeper的端口
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
<property>
#zookeeper会话延时
<name>zookeeper.session.timeout</name>
<value>120000</value>
</property>
<property>
#zookeeper管理的节点名称
<name>hbase.zookeeper.quorum</name>
<value>master,slave1,slave2</value>
</property>
<property>
#hbase生成文件的存放路径
<name>hbase.tmp.dir</name>
<value>/usr/local/src/hbase/tmp</value>
</property>
<property>
#是否使用hbase的分布式
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
</configuration>
vi regionservers
改localhost
为
slave1
slave2
cd /usr/local/src/hbase
mkdir tmp
分发hbase和环境变量至slave1 slave2 ,刷新环境变量
cd /usr/local/src/hbase
bin/start-dfs.sh(启动HDFS,先启动hadoop和zookeeper)
(若zookeeper没启动此刻启动zookeeper 命令:cd /usr/local/src/zookeeper bin/zkServer.sh start)
start-hbase.sh(启动HBase)
查看web端口号:192.168.80.80:60010
关的时候先关hbase,再关hadoop,再关zookeeper