1、安装 JDK
①、下载 jdk-7u79-linux-x64.tar.gz(
http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html)
②、将 jdk-7u79-linux-x64.tar.gz 解压缩到 /usr/local/java/ 目录下,解压命令:
tar -xzvf jdk-7u79-linux-x64.tar.gz /usr/local/java/ |
如图:
③、配置环境变量,在 /etc/profile 文件最后追加上入下所示代码:
JAVA_HOME=/usr/local/java/jdk1.7.0_79 JRE_HOME=$JAVA_HOME/jre CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar PATH=$PATH:$JAVA_HOME/bin export JAVA_HOME JRE_HOME CLASSPATH PATH |
2、安装hadoop
①、下载 hadoop-1.2.1.tar.gz(
https://dist.apache.org/repos/dist/release/hadoop/common/hadoop-1.2.1/)
②、将 hadoop-1.2.1.tar.gz 解压缩到 /usr/local/hadoop/ 目录下,解压命令:
tar -xzvf hadoop-1.2.1.tar.gz /usr/local/hadoop/ |
如图:
3、配置 hadoop
①、进入hadoop的目录conf文件夹下,修改hadoop-env.sh文件配置JDK,为Hadoop的守护进程设置环境变量
vi hadoop-env.sh |
追加如下图所示信息:
②、配置hadoop的目录/conf/core-site.xml,配置HDFS的地址和端口,NameNode的IP地址及端口
vi core-site.xml |
文件配置如下:
<configuration> <property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/home/hadoop_tmp</value> </property> </configuration> |
③、配置hadoop的目录/conf/mapred-site.xml,MapReduce的配置,配置的是JobTracker的地址和端口
vi mapred-site.xml |
配置如下:
<configuration> <property> <name>mapred.job.tracker</name> <value>localhost:9001</value> </property> </configuration> |
④、配置hadoop的目录/conf/hdfs-site.xml,HDFS配置备份方式默认为3,单机版本中需要改为1
vi hdfs-site.xml |
配置如下:
<configuration> <property> <name>dfs.replication</name> <value>1</value> <name>dfs.permissions</name> <value>false</value> </property> </configuration> |
⑤、masters、slaves 这两个文件由于是配置单机的环境,所以不需要改动
4、在启动hadoop之前需要格式化hadoop的文件系统 HDFS
# bin/hadoop namenode -format |
5、进入hadoop文件夹,输入下面命令:
# bin/start-all.sh |
如图所示:是启动时候日志输出的位置
使用 jps 命令查看是否启动成功,如图所示:
浏览器访问测试地址:
HDFS:http://193.168.1.102:50070
MapReduce :http://193.168.1.102:50030