centOS安装hbase(完全分布式)

一、准备

1.hadoop已经安装
我是三台虚拟机hadoop102、hadoop103、hadoop104
2.zookeeper已经安装

##二、 zookeeper安装
安装文件apche-zookeeper-bin.tar.gz(看清楚是带bin的!!)
清华源下载

# 解压
tar zxvf apche-zookeeper-bin-***.tar.gz -C /opt/module/
# 改名
mv zookeeper-版本号 zookeeper
# 改掉zookeeper的conf文件名,因为zookeeper默认使用zoo.cfg 配置文件 如果没有回提示找不到配置文件
#在/zookeeper/conf目录下
cp zoo_sample.cfg zoo.cfg
# zookeeper下创建
mkdir -p zkdata
sudo chmod 766 zkdata
# 修改zoo.cfg
dataDir=/opt/module/zookeeper/zkdata
# 增加下面配置
#######################cluster##########################
server.2=hadoop102:2888:3888
server.3=hadoop103:2888:3888
server.4=hadoop104:2888:3888
#其中 dataDir是zookeeper数据存放位置,server.y=XXXX:2888:3888是zookeeper每台配置的信息,y代表zookeeper编号及myid文件对应的内容,XXXX是服务器对应的IP地址或者主机名

在这里插入图片描述
在/opt/module/zookeeper/zkData目录下创建一个myid的文件

touch myid

在这里插入图片描述
vi myid

添加对应id,比如2
在这里插入图片描述
xsync同步(分布式必要):没有同步脚本就要scp传送了

xsync /opt/module
# scp
scp -r /opt/module/zookeeper ownyoung@hadoop103:/opt/module
scp -r /opt/module/zookeeper ownyoung@hadoop104:/opt/module

再把hadoop103的myid改成3,hadoop104的myid改成4

启动zookeeper

bin/zkServer.sh start

关闭:bin/zkServer.sh st

  • 1
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要将CentOS 7上的Hadoop配置为完全分布式模式,您需要执行以下步骤: 1. 配置网络:确保每台机器都能相互访问,并且可以通过主机名进行通信。您可以使用静态IP或DNS解析来实现。 2. 安装Java:确保每台机器上都安装了Java Development Kit(JDK)。Hadoop需要Java来运行。您可以从Oracle官网下载JDK并按照它们的安装说明进行安装。 3. 安装Hadoop:从Apache Hadoop官方网站下载适用于CentOS 7的Hadoop二进制包。解压缩下载的文件并将其放在每台机器的相同目录下。 4. 配置Hadoop环境变量:编辑每台机器上的`~/.bashrc`文件,并添加以下行来设置Hadoop的环境变量: ```bash export HADOOP_HOME=/path/to/hadoop export PATH=$PATH:$HADOOP_HOME/bin ``` 然后运行`source ~/.bashrc`命令以使更改生效。 5. 配置Hadoop集群:编辑每台机器上的`$HADOOP_HOME/etc/hadoop/core-site.xml`文件,并设置以下属性: ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://namenode_hostname:9000</value> </property> </configuration> ``` 在上述配置中,将`namenode_hostname`替换为您的NameNode的主机名。 6. 配置HDFS:编辑每台机器上的`$HADOOP_HOME/etc/hadoop/hdfs-site.xml`文件,并设置以下属性: ```xml <configuration> <property> <name>dfs.replication</name> <value>3</value> </property> </configuration> ``` 这将设置HDFS的副本数为3。您可以根据需要进行调整。 7. 配置YARN:编辑每台机器上的`$HADOOP_HOME/etc/hadoop/yarn-site.xml`文件,并设置以下属性: ```xml <configuration> <property> <name>yarn.resourcemanager.hostname</name> <value>resourcemanager_hostname</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration> ``` 将`resourcemanager_hostname`替换为您的ResourceManager的主机名。 8. 配置Hadoop节点:在每台机器上,编辑`$HADOOP_HOME/etc/hadoop/slaves`文件,并将其设置为包含所有数据节点的主机名或IP地址。 9. 格式化HDFS:在NameNode上执行以下命令以格式化HDFS: ```bash hdfs namenode -format ``` 10. 启动Hadoop集群:在NameNode上执行以下命令以启动Hadoop集群: ```bash start-dfs.sh start-yarn.sh ``` 这将启动HDFS和YARN。 11. 验证配置:通过访问Hadoop管理界面或执行一些MapReduce任务来验证Hadoop配置是否正确。 请注意,以上步骤是一个基本的指南,您可能需要根据您的特定环境和需求进行调整。确保在执行任何更改之前备份您的配置文件。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值