1、 找到原有的Java jdk
java -version
rpm -qa| grep java
2、 卸载原有Jdk
su root
[root@localhost bin]# rpm -e --nodeps java-1.8.0-openjdk
[root@localhost bin]# rpm -e --nodeps java-1.8.0-openjdk-headless
[root@localhost bin]# rpm -e --nodeps tzdata-java
[root@localhost bin]# rpm -e --nodeps javapackages-tools
3、查看是否卸载成功
java -version
4、卸载成功后,创建一个目录(例子:/export/servers)目录
cd /
mkdir /export
cd export
mkdir servers
cd servers
这里需要连接到Xshell: 使用终端上传jdk和hadoop安装包
5、 解压java的jdk:
tar -zxvf jdk文件版本
ll 查看
cd jdk文件版本
vi /etc/profile 配置环境变量
如下:
export JAVA_HOME=/export/servers/jdk1.8.0_321
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
更新配置文件: source /etc/profile
查看是否配置成功: java -version
6、解压hadoop文件:
tar -zxvf hadoop文件版本
ll 查看
cd hadoop文件
vi /etc/profile 配置环境变量
如下:
export HADOOP_HOME=/export/servers/hadoop-3.1.3
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
更新配置文件: source /etc/profile
查看是否配置成功: hadoop -version
7.配置hadoop的三个配置文件。
1. hadoop-env.sh文件
[root@localhost hadoop]# vi hadoop-env.sh
将JAVA_HOME路径设置为java_home路径,并删除#
2. core-site.xml文件
[root@localhost hadoop]# vi core-site.xml
添加:
<property>
<name>hadoop.tmp.dir</name>
<value>/export/servers/hadoop-3.1.3</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/export/servers/hadoop-3.1.3</value>
</property>
3.hdfs-site.xml文件
[root@localhost hadoop]# vi hdfs-site.xml
添加:
<property>
<name>dfs.relication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/export/servers/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/export/servers/tmp/dfs/data</value>
</property>
4、添加后创建目录:
/hadoop/tmp/dfs/name
/hadoop/tmp/dfs/data
5、查看是否成功配置
hdfs namenode -format
8、修改配置文件/etc/profile
1. vi /etc/profile
写入:
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root
2. source /etc/profile
3. start-dfs.sh 运行
4. start-yarn.sh