- 首先准备好hadoop的安装包,我们准备的是260版本。
- 用Xftp工具将压缩包拖到我们的虚拟机内。
- 解压hadoop-2.6.0-cdh5.14.2.tar.gz
- 解压后执行以下命令,将解压后的文件移动到soft文件夹下,并修改文件名为hadoop260
- 进入hadoop260/etc/hadoop
- 查看以下jdk的版本,复制
- ls命令查看以下hadoop下的文件
- 接下来我们要一次修改几个文件
- 修改hadoop-env.sh文件,将复制的jdk版本写在JAVA_HOME后边
- 修改 core-site.xml,填入以下内容
- 继续修改配置文件
- 修改/etc/profile
export HADOOP_HOME=/usr/local/softwave/hadoop-2.7.3
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
export HADOOP_INSTALL=$HADOOP_HOME
记得编辑一下这个文件,使主机名保持一致,否则hdfs传文件时会报错