Linux修改hadoop配置文件及启动hadoop集群详细步骤_在linux如何进入hadoop

本文详细介绍了在Linux系统中配置和启动Hadoop集群的步骤,包括修改core-site.xml、mapred-site.xml、hdfs-site.xml、yarn-site.xml和workers文件,以及分发文件、修改启动脚本、格式化HDFS、启动和停止Hadoop集群的流程。此外,还涉及了在启动过程中可能遇到的问题及其解决方案。
摘要由CSDN通过智能技术生成

4.修改 core-site.xml 文件

vim core-site.xml

fs.defaultFS hdfs://hadoop:8020 hadoop.tmp.dir /opt/server/hadoop/data

5.修改 mapred-site.xml 文件

vim mapred-site.xml

mapreduce.framework.name yarn

6.修改 hdfs-site.xml 文件

vim hdfs-site.xml

dfs.replication 3 dfs.namenode.secondary.http-address hadoop2:50090

7.修改 yarn-site.xml 文件

vim yarn-site.xml

yarn.resourcemanager.hostname hadoop yarn.nodemanager.aux-services mapreduce_shuffle

8.修改 workers 文件

vim workers

hadoop
hadoop2
hadoop3

三、给hadoop2、hadoop3分发文件

1.到存放hadoop的文件夹下

cd /opt/server/

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值