1. 环境
节点 (192.168.118.*) | Node1(ip:142) | Node2(ip:142) | Node3(ip:142) | Node4(ip:142) |
NameNode | 是 | 是 |
|
|
ResourceManage | 是 |
|
|
|
NodeManage |
| 是 | 是 | 是 |
DataNode |
| 是 | 是 | 是 |
JournalNode |
| 是 | 是 | 是 |
Zookeeper | 是 | 是 | 是 |
|
ZKFC | 是 | 是 |
|
|
HMaster | 是 | 是 |
|
|
RegionServer | 是 | 是 | 是 | 是 |
2. 配置HBASE
1. 编辑conf/ hbase-site.xml文件
2. 复制hadoop conf/hdfs-site.xml文件到hbase/conf/目录下
3. 添加hbase的工作目录为hdfs,并且开启完全分布式
4. 指定zookeeper服务器以及目录
3. 配置环境
编辑hbase-env.sh
1. 关闭自带的zookeeper
2. 配置javahome
4. 配置RegionServer
编辑regionservers文件,指定RegionServer服务器
5. 复制配置文件到其他服务器
scp -p ~/hbase root@node2:~/hbase/conf/
6. 启动
./start-hbase.sh 启动HMaster和所有RegionServer
#启动单独的HMaster
./hbase-daemon.sh start master
访问地址:http://node1:60010/
7. 连接客户端
./hbase shell