安装教程看:Hadoop,三个节点,详解(一)-CSDN博客
-
远程分发
cd /opt/software/ scp -r hadoop-3.2.4/ root@hadoop02:/opt/software scp -r hadoop-3.2.4/ root@hadoop03:/opt/software
-
配置环境变量并发送
# 编辑文件 vim /etc/profile.d/hadoophome.sh # 在文件中添加 export HADOOP_HOME=/opt/software/hadoop-3.2.4 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin # 保存退出,生效 source /etc/profile.d/hadoophome.sh # 测试 hadoop version # 远程分发 scp /etc/profile.d/hadoophome.sh root@hadoop02:/etc/profile.d scp /etc/profile.d/hadoophome.sh root@hadoop03:/etc/profile.d # 分发完成之后,另外两个节点分别source分别测试
-
第一次启动之前,需要在第一个节点上格式化NameNode
hdfs namenode -format 如果出现Storage directory /opt/software/hadoop-3.2.4/tmp/dfs/name has been successfully formatted就表示格式化成功
-
在第一个节点上启动HDFS
start-dfs.sh
-
在第三个节点上启动YARN
start-yarn.sh
-
在第二个节点上启动历史服务器
mapred --daemon start historyserver
-
查看进程
jps # 第一个节点上有三个进程 NameNode DataNode NodeManager # 第二个节点上 SecondaryNameNode DataNode NodeManager JobHistoryServer # 第三个节点上 ResourceManager NodeManager DataNode