1.下载
http://www.apache.org/dist/hadoop/core/ 版本为 hadoop-1.2.1
2. 解压 文件 tar -xzvf hadoop-1.0.4.tar.gz
修改配置文件(安装目录下的 conf/ 下)
1>.hadoop-env.xml 添加 java配置
export JAVA_HOME=/usr/java/default
export HADOOP_HOME=/opt/hadoop/hadoop-1.2.1
export PATH=$PATH:/opt/hadoop/hadoop-1.2.1/bin
export HADOOP_COMMON_HOME=/opt/hadoop/hadoop-1.2.1
export HADOOP_HOME_WARN_SUPPRESS=1
2>.core-site.xml添加配置
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/var/log/hadoop/tmp</value>
</property>
3>.hdfs-site.xml 这是Hadoop中的HDFS的配置,配置的备份方式默认为3,在单机版的Hadoop中,需要将其改为1.
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
4>.修改 mapred-site.xml 这是Hadoop中MapReduce的配置文件,配置的是JobTracker的地址和端口。
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
3.bin/hadoop namenode -format
需格式化Hadoop的文件系统HDFS(这点与Windows是一样的,重新分区后的卷总是要格式化的)
4.启动hadoop
bin/start-all.sh
验证Hadoop是否安装成功。打开浏览器,分别输入网址:
http://localhost:50070/(HDFS的Web页面)
http://localhost:50030/(MapReduce的Web页面)