文章目录
0x00 文章内容
- 修改并同步配置文件
- 校验结果
前提:
1、配置好了HDFS的HA模式,参考文章:HDFS的高可用性HA配置实战
2、安装好了HBase,参考文章:D005 复制粘贴玩大数据之安装与配置HBase集群
0x01 修改并同步配置文件
1. 修改HBase的配置文件
a. 修改hbase-site.xml
文件(hbase.rootdir
配置项)
<property>
<name>hbase.rootdir</name>
<value>hdfs://mycluster/hbase</value>
</property>
b. 完整的hbase-site.xml
文件
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://mycluster/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>master,slave1,slave2</value>
</property>
</configuration>
2. 同步HDFS的配置文件到slave1、slave2
a. 配置文件有两个core-site.xml
、hdfs-site.xml
,均需要从master同步到slave1、slave2
3. 复制一份配置文件给HBase
a. 三台节点,均需要将HDFS的core-site.xml
、hdfs-site.xml
同步到HBASE_HOME/conf
0x02 校验结果
1. 启动前提
a. 三台节点的配置下面的两个路径均有core-site.xml
、hdfs-site.xml
$HADOOP_HOME/etc/hadoop/
$HBASE_HOME/conf/
b. ZK已启动,HDFS已启动(YARN可以不启动)
2. 启动并查看各节点进程
a. 启动
start-hbase.sh
b. 查看各节点进程
~/shell/call_all.sh jps
(脚本链接=>:大数据常用管理集群脚本集合)
0xFF 总结
- 目前我们的服务器配置为:
master 3G/2core
,slave1 2G/2core
,slave2 2G/2core
,可想而知,还是略显吃力的,学习的话,可以恢复一下回非HA模式。
作者简介:邵奈一
全栈工程师、市场洞察者、专栏编辑
| 公众号 | 微信 | 微博 | CSDN | 简书 |
福利:
邵奈一的技术博客导航
邵奈一 原创不易,如转载请标明出处。