特点:只有MapReduce,没有HDFS。
作用:测试MapReduce,处理本地Linux上面的数据。
准备工作:
1.安装Linux;
https://blog.csdn.net/lwf006164/article/details/90947874(上)
https://blog.csdn.net/lwf006164/article/details/91482171(下)
2.关闭防火墙;
https://blog.csdn.net/lwf006164/article/details/93379462
3.配置IP地址与主机名的映射关系;
https://blog.csdn.net/lwf006164/article/details/93379521
4.安装和配置JDK
https://blog.csdn.net/lwf006164/article/details/93378845
第一步:下载Hadoop,版本是2.7.3
链接:https://pan.baidu.com/s/1LEyyTR9l2O9CMuY-6gja1w
提取码:sdsb
第二步:上传到Linux服务器上
第三步:解压安装包
//-C ~/training为指定解压后文件的目录
tar -zxvf hadoop-2.7.3.tar.gz -C ~/training
第四步:设置环境变量
//进入编辑模式
vi ~/.bash_profile
//设置Hadoop安装目录
export HADOOP_HOME=/root/training/hadoop-2.7.3
//设置Hadoop的bin目录和sbin目录
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
//生效配置
source ~/.bash_profile
第五步:修改配置
//修改安装目录的etc目录下面的hadoop-env.sh文件
vi /etc/hadoop-env.sh
//设置jdk的安装目录
export JAVA_HOME=/root/training/jdk1.8.0_144
第六步:启动
//在sbin目录里面启动
start-all.sh