一、Jdk环境安装
解压jdk
[root@hadoop1 apps]#tar -zxvf jdk-8u181-linux-x64.tar.gz
配置环境变量
[root@hadoop1 jdk1.8.0_181]# vi /etc/profile
在最下面输入1.export JAVA_HOME=/home/hadoop/apps/jdk1.8.0_181
2.export PATH=$JAVA_HOME/bin: $PATH
保存退出:Shift+zz
查看java是否存在
[root@hadoop1 jdk1.8.0_181]# java -version
二、hadoop环境安装
解压安装包
[root@hadoop1 apps]# tar -zxvf hadoop-2.8.0.tar.gz
修改配置文件
[root@hadoop1 hadoop]# vi /etc/profile
在最下面输入
1.export HADOOP_HOME=/home/hadoop/apps/hadoop-2.8.0
2.export PATH=$ PATH:$ HADOOP_HOME/bin:$HADOOP_HOME/sbin
查看hadoop是否存在
[root@hadoop1 hadoop]#source /etc/profile
[root@hadoop1 hadoop]#hadoop version
修改配置文件
vi hadoop-env.sh
vi core-site.xml
vi hdfs-site.xml
[root@hadoop1 hadoop]# cp mapred-site.xml.template mapred-site.xml
vi mapred-site.xml
vi yarn-site.xml
vi slaves
hadoop1
hadoop2
hadoop3
三、进行拷贝
在hadoop2和hadoop3是分别创建如下:
[root@hadoop2 home]# mkdir -p /home/hadoop/apps
[root@hadoop3 home]# mkdir -p /home/hadoop/apps
在hadoop1上,经之前安装好jdk、/etc/profile 、 /etc/hosts文件分别发送到hadoop2和hadoop03上
[root@hadoop1 hadoop]# scp -r /home/hadoop/apps/jdk1.8.0_181/ hadoop2:/home/hadoop/apps/
[root@hadoop1 hadoop]# scp -r /home/hadoop/apps/jdk1.8.0_181/ hadoop3:/home/hadoop/apps/
[root@hadoop1 hadoop]# scp -r /home/hadoop/apps/hadoop-2.8.0 hadoop2:/home/hadoop/apps/
[root@hadoop1 hadoop]# scp -r /home/hadoop/apps/hadoop-2.8.0 hadoop3:/home/hadoop/apps/
[root@hadoop1 hadoop]# scp -r /etc/hosts hadoop2:/etc
[root@hadoop1 hadoop]# scp -r /etc/hosts hadoop3:/etc
[root@hadoop1 hadoop]# scp -r /etc/profile hadoop2:/etc/profile
[root@hadoop1 hadoop]# scp -r /etc/profile hadoop3:/etc/profile
分别在hadoop2、hadoop3上执行以下命令:
出现上图代码,说明jdk和hadoop已经拷贝完成
四、启动集群
在hadoop1上执行:初始化HDFS
[root@hadoop1 hadoop]# hadoop namenode -format
自动化脚本启动:
[root@hadoop1 hadoop-2.8.0]# start-all.sh
查看hadoop启动的线程:
[root@hadoop1 hadoop-2.8.0]#jps
在hadoop2和hadoop3上分别操作jps
出现上图则成功!
五、namenode在浏览器的界面
输入192.168.72.110:50070后进入页面
这样就算成功连接!