一、准备工作
1、安装Linux、JDK、关闭防火墙、配置主机名
解压Hadoop的压缩包:tar -zxvf hadoop-2.7.3.tar.gz -C ~/training/
查看目录结构(需要安装tree命令):tree -d -L 3 hadoop-2.7.3/
设置环境变量:
(1)先查看Hadoop的安装路径:pwd
显示为:/root/training/hadoop-2.7.3
(2)打开环境变量的文件:vi ~/.bash_profile
在文件中输入:
HADOOP_HOME=/root/training/hadoop-2.7.3
export HADOOP_HOME
PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
export PATH
保存退出
(3)使环境变量生效
source ~/.bash_profile
验证:输入命令start 按两次TAB
二 本地模式
特点:没有HDFS,只能测试MapReduce程序,MapReduce处理的是本地Linux的文件数据
进入Hadoop的安装目录,修改配置文件
cd training/hadoop-2.7.3/etc/hadoop/
vi hadoop-env.sh
set number
修改第25行,把JAVA_HOME参数的值改成/root/training/jdk1.8.0_144(JDK的路径)
验证一下Hadoop是否可用:
cd ~/training/hadoop-2.7.3/share/hadoop/mapreduce/
hadoop jar hadoop-mapreduce-examples-2.7.3.jar wordcount ~/input/data.txt ~/output