source /etc/profile
7.查看是否安装配置成功,查看java版本:
java -version
(二)Hadoop集群部署
前提:已利用Xftp工具将压缩包传至虚拟机的/opt/中。
(先在Server01的XShell界面上进行安装Hadooop环境,Hadoop集群配置,将这些操作步骤完成后,通过已经配置好的ssh免密,使Server02和Server03快速地完成Hadoop集群部署)
##安装Hadooop环境
(当前在Server01的XShell界面)
1.解压文件
tar -zxvf hadoop版本.tar.gz
2.编辑系统环境变量配置文件
vi /etc/profile
export HADOOP_HOME=/opt/hadoop-3.1.3
export PATH=${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin:$PATH
3.生效环境变量
需要在所有服务器执行
source /etc/profile
4.查看是否安装配置成功,查看Hadoop版本
hadoop version
##Hadoop集群配置
(当前在Server01的XShell界面)
1. 配置Hadoop集群主节点
① 进入Hadoop配置文件文档
cd /opt/hadoop-3.1.3/etc/hadoop/
② 修改hadoop-env.sh文件
vi hadoop-env.sh
随便找一个前面没有#的地方,按i,黏贴下面内容:
export JAVA_HOME=/opt/jdk1.8.0_311
esc键,冒号加wq退出
③ 修改core-site.xml文件
vi core-site.xml
按i进入编辑模式粘贴下面代码:
<!-- 用于设置Hadoop的文件系统,由URI指定 -->
<configuration>
<!-- 用于设置Hadoop的文件系统,由URI指定 -->
<property>
<!-- 用于指定namenode地址在主节点机器上 -->
<name>fs.defaultFS</name>
<value>hdfs://Server01:9000</value>
</property>
<!-- 配置Hadoop的临时目录,默认/tmp/hadoop-${user.name} -->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop-3.1.3/tmp</value>
</property>
</configuration>