2024年大数据最全Hadoop集群部署和启动与关闭_启动hadoop

<name>dfs.namenode.rpc-address.master.nn1</name> #标识符nn1的RPC服务地址
<value>spark01:9000</value>
dfs.namenode.rpc-address.master.nn2 #标识符nn2的RPC服务地址 spark02:9000 dfs.namenode.http-address.master.nn1#标识符nn1的HTTP服务地址 spark01:50070 dfs.namenode.http-address.master.nn2#标识符nn2的HTTP服务地址 spark02:50070 dfs.namenode.shared.edits.dir#NameNode元数据在JournalNode上的共享存储目录 qjournal://spark01:8485;spark02:8485;spark03:8485/master dfs.journalnode.edits.dir#JournalNode存放数据地址 /export/data/hadoop/journaldata dfs.client.failover.proxy.provider.master#访问代理类,用于确定当前处于 Active 状态的 NameNode节点 org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider dfs.ha.fencing.methods#配置隔离机制,确保集群中只有一个NameNode处于活动状态 sshfence shell(/bin/true) dfs.ha.fencing.ssh.private-key-files#sshfence隔离机制需要配置本机密钥地址 /root/.ssh/id_rsa dfs.ha.automatic-failover.enabled#开启自动故障状态切换 true dfs.ha.fencing.ssh.connect-timeout#sshfence隔离机制超时时间 30000 dfs.webhdfs.enabled #开启webhdfs服务 true

5. 修改mapred-site.xml文件  
   在虚拟机Spark01中,进入Hadoop安装包的/etc/hadoop/目录,执行“`cp mapred-site.xml.template mapred-site.xml`”命令,通过复制模板文件方式创建MapReduce  
 的核心配置文件mapred-site.xml,执行“`vi mapred-site.xml`”命令编辑配置文件  
 mapred-site.xml ,指定MapReduce运行时框架。如下:



mapreduce.framework.name#指定MapReduce 作业运行在 YARN框架之上 yarn

6. 修改yarn-site.xml文件  
   在虚拟机Spark01中,进入Hadoop安装包的/etc/hadoop/目录,执行“cp yarn-site.xml”命令,编辑YARN的核心配置文件yarn-site.xml。如下:



yarn.nodemanager.aux-services#配置NodeManager上运行的附属服务,需要配置为mapreduce_shuffle mapreduce_shuffle yarn.resourcemanager.ha.enabled#开启ResourceManager的HA机制 true yarn.resourcemanager.cluster-id#自定义ResourceManager集群的标识符 yarncluster yarn.resourcemanager.ha.rm-ids#自定义集群中每个ResourceManager节点的唯一标识符 rm1,rm2 yarn.resourcemanager.hostname.rm1#指定标识符rm1的ResourceManager节点 spark01 yarn.resourcemanager.hostname.rm2#指定标识符rm2的ResourceManager节点 spark02 yarn.resourcemanager.zk-address#ZooKeeper集群地址 spark01:2181,spark02:2181,spark03:2181 yarn.resourcemanager.recovery.enabled#开启自动恢复功能 true yarn.resourcemanager.ha.automatic-failover.enabled#开启故障自动转移 true yarn.resourcemanager.store.class#ResourceManager存储信息的方式,在HA机制下用ZooKeeper(ZKRMStateStore)作为存储介质 org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore yarn.log-aggregation-enable#开启YARN日志 true

7. 修改slaves文件  
   在虚拟机Spark01中,进入Hadoop安装包的/etc/hadoop/目录,执行“`vi slaves`”命令,编辑记录Hadoop集群所有DataNode节点和NodeManager节点主机名的文件slaves。如下:



spark01
spark02
spark03


8. 配置Hadoop环境变量  
   在虚拟机Spark01中,执行“`vi /etc/profile`”命令编辑系统环境变量文件profile,  
 配置Hadoop系统环境变量。如下:



export HADOOP_HOME=/export/servers/hadoop-2.7.4
export PATH= H A D O O P H O M E / b i n : HADOOP_HOME/bin: HADOOPHOME/bin:HADOOP_HOME/sbin:$PATH


系统环境变量文件profile配置完成后保存并退出即可,随后执行“`source /etc/profile`”命令初始化系统环境变量使配置内容生效。


9. 分发文件  
   为了便于快速配置Hadoop集群中其他服务器,将虚拟机Spark01中的Hadoop安装目录和系统环境变量文件分发到虚拟机Spark02和Spark03。如下:



#将Hadoop安装目录分发到虚拟机Spark02和Spark03
$ scp -r /export/servers/hadoop-2.7.4/ root@spark02:/export/servers/
$ scp -r /export/servers/hadoop-2.7.4/ root@spark03:/export/servers/
#将系统环境变量文件分发到虚拟机Spark02和Spark03
$ scp /etc/profile root@spark02:/etc/
$ scp /etc/profile root@spark03:/etc/


完成分发操作,分别在虚拟机Spark02和Spark03中执行“`source /etc/profile`”命令初始化系统环境变量。


10. 验证Hadoop环境  
   在虚拟机Spark01中,执行“`hadoop version`”命令查看当前系统环境的Hadoop版本。如下图所示:  
 ![在这里插入图片描述](https://img-blog.csdnimg.cn/c0e96e70f39c4f4f8855539bb2faeac0.png#pic_center)


## 三、启动Hadoop高可用集群配置


1. 启动ZooKeeper  
   分别在虚拟机Spark01、Spark02和Spark03中执行“`zkServer.sh start`”命令启动每台虚拟机的ZooKeeper服务。
2. 启动JournalNode  
   分别在虚拟机Spark01、Spark02和Spark03中执行“`hadoop-daemon.sh start journalnode`”命令启动每台虚拟机的JournalNode服务。如下图所示:  
 ![在这里插入图片描述](https://img-blog.csdnimg.cn/91f73b275be94aff979f8fec7c75b818.png#pic_center)  
 ![在这里插入图片描述](https://img-blog.csdnimg.cn/f424cd240d5a44df868609a250c8123a.png#pic_center)  
 ![在这里插入图片描述](https://img-blog.csdnimg.cn/1f130833e9ba4dac9901720502f8cc9b.png#pic_center)
3. 初始化NameNode(仅初次启动执行)  
   在Hadoop集群主节点虚拟机Spark01执行“`hdfs namenode -format`”命令初始化NameNode操作。如下图所示:  
 ![在这里插入图片描述](https://img-blog.csdnimg.cn/83882179e3c146b490a2275f7f145ef3.png#pic_center)
4. 初始化ZooKeeper(仅初次启动执行)  
   在NameNode主节点虚拟机Spark01,执行“`hdfs zkfc -formatZK`”命令初始化ZooKeeper 中的 HA 状态。  
 ![在这里插入图片描述](https://img-blog.csdnimg.cn/76c386864efb444ba8cd05ae75ef0916.png#pic_center)
5. NameNode同步(仅初次启动执行)  
   在虚拟机Spark01中的NameNode主节点执行初始化命令后,需要将元数据目录的内容复制到其他未格式化的 NameNode备用节点(虚拟机Spark02)上,确保主节点和备用节点的NameNode数据一致。命令如下:  
 `scp -r /export/data/hadoop/namenode/ root@spark02:/export/data/hadoop/`
6. 启动HDFS  
   在虚拟机Spark01中通过执行一键启动脚本命令“`start-dfs.sh`”,启动Hadoop集群的HDFS,此时虚拟机Spark01和Spark02上的NameNode和ZKFC以及虚拟机Spark01、Spark02和Spark03上的DataNode都会被启动。
7. 启动YARN  
   在虚拟机Spark01中通过执行一键启动脚本命令“`start-yarn.sh`”,启动Hadoop集群的YARN,此时虚拟机Spark01上的ResourceManager以及虚拟机Spark01、Spark02和Spark03上的NodeManager都会被启动,不过虚拟机Spark02上的ResourceManager备用节点需要在虚拟机Spark02上执行“`yarn-daemon.sh start resourcemanager`”命令单独启动。
8. 查看集群  
   分别在三台虚拟机Spark01、Spark02和Spark03上执行“`jps`”命令查看Hadoop高可用集群相关进程是否成功启动。  
 ![在这里插入图片描述](https://img-blog.csdnimg.cn/4b5792d546de46489e03eac81e7e2d41.png#pic_center)  
 ![在这里插入图片描述](https://img-blog.csdnimg.cn/50578e8c595b4b4880a00d2321a0af44.png#pic_center)  
 ![在这里插入图片描述](https://img-blog.csdnimg.cn/88a2bb3bddf24099b2e9a24cc6570096.png#pic_center)


## 四、关闭Hadoop高可用集群


1. 在虚拟机Spark02执行“`yarn-daemon.sh stop resourcemanager`”命令,关闭ResourceManager备用节点。
2. 在虚拟机Spark02执行“`stop-yarn.sh`”命令,关闭YARN。
3. 在虚拟机Spark02执行“`stop-dfs.sh`”命令,关闭HDFS。
4. 分别在虚拟机Spark01、Spark02和Spark03执行“`hadoop-daemon.sh stop journalnode`”命令,关闭JournalNode。


好了,Hadoop的集群部署我们就讲到这里了,下一篇我们将讲解[Spark集群部署]( )   
 转载自:<https://blog.csdn.net/u014727709/article/details/130915938>  
 欢迎start,欢迎评论,欢迎指正






![img](https://img-blog.csdnimg.cn/img_convert/e58c82ce43e52d477db365b9fd89b638.png)
![img](https://img-blog.csdnimg.cn/img_convert/825d0c7da88e913ceb2f7247d15c1832.png)

**网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**

**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/topics/618545628)**


**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**

堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**

**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/topics/618545628)**


**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**

  • 12
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值