系列文章目录
Ubuntu常见基本问题
Hadoop3.1.3安装(单机、伪分布)
Hadoop集群搭建
HBase2.2.2安装(单机、伪分布)
Zookeeper集群搭建
HBase集群搭建
Spark安装和编程实践(Spark2.4.0)
Spark集群搭建
前置条件
- Hadoop集群
- JDK
- Zookeeper集群
- SSH
一、修改配置文件
1、hbase-env.sh
cd /usr/local/hbase/conf
vim hbase-env.sh
修改为:
export HBASE_MANAGES_ZK=false
2、hbase-site.xml
cd /usr/local/hbase/conf
vim hbase-site.xml
修改为:
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://Master:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.unsafe.stream.capability.enforce</name>
<value>false</value>
</property>
<property>
<!-- 指定 zk 的地址,多个用“,”分割 -->
<name>hbase.zookeeper.quorum</name>
<value>Master,Slave1</value>
</property>
</configuration>
3、regionservers
cd /usr/local/hbase/conf
vim regionservers
修改为:
Master
Slave1
4、分发 hbase 目录
scp -r /usr/local/hbase slave1:/usr/local
二、启动
启动Zookeeper(所有节点)
cd /usr/local/zookeeper/bin
./zkServer.sh start
启动Hadoop(主节点)
cd /usr/local/hadoop
./sbin/start-dfs.sh
hadoop-daemon.sh start datanode
启动hbase(主节点)
cd /usr/local/hbase
bin/start-hbase.sh
jps检查,成功!!!