![a5c52ab3120df5f6a012462bec220e39.png](https://i-blog.csdnimg.cn/blog_migrate/25beb1053ffef6e555b5194c86d12dbd.png)
前面三个文档已经完成了基础环境的搭建
《HBase基础环境搭建》
《HBase基础环境搭建之Hadoop搭建》
《HBase基础环境搭建之Hive和Sqoop安装》
现在进入HBase的环境搭建
环境工具
![fc9de1e56e7f0fd111ded99a177e4a30.png](https://i-blog.csdnimg.cn/blog_migrate/3ed153b2cfd9d70d4f0df55ced13e8bf.png)
解压
tar -zxvf hbase-1.2.1-bin.tar.gz -C /opt/bigdata/
![48e649d363cbeeb78a8f81768626e726.png](https://i-blog.csdnimg.cn/blog_migrate/59e180d749616ef07191c128b0687568.png)
环境工具
![cf214ac40bad1a17d44f9aefde3567fd.png](https://i-blog.csdnimg.cn/blog_migrate/d432a8966f1757f93eb3a87378248ed3.png)
解压缩
tar -zxvf zookeeper-3.4.9.tar.gz -C /opt/bigdata/
![bea6b274dbb69f1284234ee9abe5716f.png](https://i-blog.csdnimg.cn/blog_migrate/274d419ddc315b1bdd2ffc39c8043c3d.png)
先配置Zookeeper
进入安装目录,找到配置文件的地方
![4d0d66991526fc77a127871f76771734.png](https://i-blog.csdnimg.cn/blog_migrate/6238356597633b14f252a67184298be8.png)
重命名zoo_sample.cfg
mv zoo_sample.cfg zoo.cfg
![44ea733d8341a24bb01bae19e9ce94a9.png](https://i-blog.csdnimg.cn/blog_migrate/c42c36d88ed47b98c4ec8d5f125f008f.png)
我们在zookeeper目录下创建一个目录data
/opt/bigdata/zookeeper-3.4.9/data
![fa4939de2ca83bb7d27467377ff9271a.png](https://i-blog.csdnimg.cn/blog_migrate/58dff4997c0015c8cc156a6a5ca93f6e.png)
编辑zoo.zfg
dataDir=/opt/bigdata/zookeeper-3.4.9/data
server.1=masterhbase:2888:3888
server.2=masterslave1:2888:3888
server.3=masterslave2:2888:3888
![5a45010edf90cac16b2b38fbedc8fc43.png](https://i-blog.csdnimg.cn/blog_migrate/295965d245586f933a584c29c0cc2408.png)
进入
/opt/bigdata/zookeeper-3.4.9/data目录
创建文件编辑数据1
执行echo 1 > myid
![af19e41c7cd162601badab5d2d30226a.png](https://i-blog.csdnimg.cn/blog_migrate/a9d2d6bcff6bda7f1141d065fc3a8e89.png)
将配置好的zookeeper发送到另外两台机器
scp -r zookeeper-3.4.9/ root@masterslave1:/opt/bigdata/
scp -r zookeeper-3.4.9/ root@masterslave2:/opt/bigdata/
发现文件夹已经在两台机器上了
![1798007be20ebf0da2d6c79958e95333.png](https://i-blog.csdnimg.cn/blog_migrate/1067c299e504ef5431dd954780d1146a.png)
将masterslave1的myid更改
![afa925149df3fb8f5fee19357ea2899a.png](https://i-blog.csdnimg.cn/blog_migrate/3ae277bfdf1b338335ea634a50b5354c.png)
将masterslave2的myid更改
![901f39befc5065309736695bb4e69384.png](https://i-blog.csdnimg.cn/blog_migrate/e0e05fb1615d7369437214d6d855644c.png)
可以启动了(三台节点均执行)
bin/zkServer.sh start
![9122b9f99d070a041462b8ae82834370.png](https://i-blog.csdnimg.cn/blog_migrate/982f85f9de42e0d697a8af256aa3d768.png)
有一个错误
ZooKeeper JMX enabled by default
查看下状态
bin/zkServer.sh status
发现没有启动
![31af4be07f0208c4e92cbeac40b0bfb7.png](https://i-blog.csdnimg.cn/blog_migrate/174f9915178190c894b4858354d247e0.png)
查看下日志
![2b746773b5e9b3c86729b21b9803e12e.png](https://i-blog.csdnimg.cn/blog_migrate/8b4f7bd6e06025cff5fb36d14dd78a59.png)
查看下,发现有错误
![b76dec84a754f1431ff604a11abe5370.png](https://i-blog.csdnimg.cn/blog_migrate/6b27cb88b133257f0d7ff644c648ac03.jpeg)
这个问题是本机的上要设置为0.0.0.0
masterhbase
![4eb7ef136418cb7eff158ce327c7c9a1.png](https://i-blog.csdnimg.cn/blog_migrate/c7278818035168fe6568c2510d08e342.png)
masterslave1
![0cf42a6bc7cc3bf6f1e8ce6e80656ad6.png](https://i-blog.csdnimg.cn/blog_migrate/16c911f3d6082c4f2aaeedfea1788357.png)
masterslave2
![5a8ff15e949347f1b8908b2d1b22a8b7.png](https://i-blog.csdnimg.cn/blog_migrate/ef92c7fe7b50391ff19df3e145d87b17.png)
重新启动就可以了
![e2d8900bffb90f1a0b429b16d960b9f1.png](https://i-blog.csdnimg.cn/blog_migrate/067eaa0e912a2bb391521492e317d601.png)
进入HBase安装目录
![62c5c497c15efd9b36122bed8d69b7a5.png](https://i-blog.csdnimg.cn/blog_migrate/7d5662eb6b8b5e2f9071ecb481c4a2a3.png)
找到配置文件,完成JDK
编辑hbase-env.sh
![2e90a6b872b2465aba50f0003948898d.png](https://i-blog.csdnimg.cn/blog_migrate/8ff777d4a9e6b69ebd56f34b4f84323c.png)
不使用hbase自带的ZK,hbase依赖ZK的,所以它自带了一个
export HBASE_MANAGES_ZK=false
![b9cf5824629aedb9bec55aebda76f3e3.png](https://i-blog.csdnimg.cn/blog_migrate/469a5d60955636c8017ce8186cb9d9d2.png)
编辑hbase-site.xml
<property>
<name>hbase.tmp.dir</name>
<value>/opt/bigdata/hbase-1.2.1/data</value>
</property>
<property>
<name>hbase.rootdir</name>
<value>hdfs://masterhbase:8082/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>masterhbase,masterslave1,masterslave2</value>
</property>
<property>
<name>zookeeper.znode.parent</name>
<value>/hbase</value>
</property>
![a1e6c91bfa9acaad1aae01c06041ab5e.png](https://i-blog.csdnimg.cn/blog_migrate/8855053ad17ca3fea430092919f8b8ab.png)
根据上面的配置我们创建目录
/opt/bigdata/hbase-1.2.1/data
![41b29006f1c89567b1e190eeec24dca0.png](https://i-blog.csdnimg.cn/blog_migrate/17cf65ba77b1baab23839b1160b3341d.png)
在hdfs上创建目录
bin/hdfs dfs -mkdir /hbase
![928155d68544a39422fa1f7b05e51cc6.png](https://i-blog.csdnimg.cn/blog_migrate/7e776da865f65f3192f0e500bab3a7aa.png)
修改regionservers,指定regionserver的机器
/opt/bigdata/hbase-1.2.1/conf下
![8957e0c2d02d5a0976069f11c8a45289.png](https://i-blog.csdnimg.cn/blog_migrate/20fc2bc7554d4f5adbe5122df31c088c.png)
拷贝hadoop中core-site.xml和hdfs-site.xml这两个文件到hbase下
cp core-site.xml /opt/bigdata/hbase-1.2.1/conf/
cp hdfs-site.xml /opt/bigdata/hbase-1.2.1/conf/
![231d073cc16df68dc7a65f390aa76ffa.png](https://i-blog.csdnimg.cn/blog_migrate/4d9cb4952aa76495aaab20c688763846.png)
替换Hadoop和ZK对应版本的jar包
![3026f291478c74bba5f9791b64a65927.png](https://i-blog.csdnimg.cn/blog_migrate/27baab7e63719f5d2b2d16b6b61f66ba.png)
在这个目录里我们可以看到hadoop的版本和我们安装的不一样,我们是hadoop-2.7.3,所以我们要变动一些包
下面是15个,我们删除
hadoop-annotations-2.5.1.jar
hadoop-auth-2.5.1.jar
hadoop-client-2.5.1.jar
hadoop-common-2.5.1.jar
hadoop-hdfs-2.5.1.jar
hadoop-mapreduce-client-app-2.5.1.jar
hadoop-mapreduce-client-common-2.5.1.jar
hadoop-mapreduce-client-core-2.5.1.jar
hadoop-mapreduce-client-jobclient-2.5.1.jar
hadoop-mapreduce-client-shuffle-2.5.1.jar
hadoop-yarn-api-2.5.1.jar
hadoop-yarn-client-2.5.1.jar
hadoop-yarn-common-2.5.1.jar
hadoop-yarn-server-common-2.5.1.jar
zookeeper-3.4.6.jar
然后将我们准备好的jar包上传
![331fa959e5d10e81da35b58d5baaf7a4.png](https://i-blog.csdnimg.cn/blog_migrate/7e3db4512cae8282e70139fb74aa5ec0.jpeg)
将HBase拷贝到另外两台机器
scp -r hbase-1.2.1/ root@masterslave1:/opt/bigdata/
scp -r hbase-1.2.1/ root@masterslave2:/opt/bigdata/
![ef2b387e69892c69736dccb953311e63.png](https://i-blog.csdnimg.cn/blog_migrate/eae5521d65e6841034ed1c324ba17c82.png)
启动HBase
必须要提前启动zookeeper、hadoop进程再启动hbase
bin/hbase-daemon.sh start master
bin/hbase-daemon.sh start regionserver
或者
bin/start-hbase.sh
![850e57d606b264881a4a468ff0d613c1.png](https://i-blog.csdnimg.cn/blog_migrate/3ec17791bb598c12e2f49b5e3b226f11.png)
在浏览器也可以访问
外部UI界面
主机名+端口号60010/16010
http://masterhbase:16010/
![e3c3440d1eb9a72760d58cdd4eaed502.png](https://i-blog.csdnimg.cn/blog_migrate/528d21d1c88f2d37ae0715098e1fabad.jpeg)