1:hadoop-env.sh
2:core-site.xml
3:hdfs-site.xml
4:mapred-site.xml
5:masters
6:slaves
-------------------------------------------------
1:hadoop-env.sh
这里要配置JAVA_HOME
我个人的: exportJAVA_HOME=/usr/java/jdk1.6.0_27
-------------------------------------------------
2:core-site.xml
fs.default.name
hdfs:master:9000
true
hadoop.tmp.dir
/home/hb/hadoop/tmp
true
-------------------------------------------------
3:hdfs-site.xml
dfs.name.dir
/home/hb/hdfs/name
true
dfs.data.dir
/home/hb/hdfs/data
true
dfs.replication
true
-------------------------------------------------
4:mapred-site.xml
mapred.job.tracker
master:9001
true
-------------------------------------------------
5:masters
6:slaves
master和slaves分别写入master和slave的主机名
-------------------------------------------------
最后把master中的配置文件复制到两台slave中去,使用scp命令
scp -r ~/hadoop-1.1.2 slave1:~
scp -r ~/hadoop-1.1.2 slave2:~
-------------------------------------------------
注意事项
1:手打的容易出错,比如字母打错,单词拼错都有可能,写完多检查,如有报错就看logs。
2:配置文件里面相关的路径目录要在master和slaves中都有相应的存在。
2:core-site.xml
3:hdfs-site.xml
4:mapred-site.xml
5:masters
6:slaves
-------------------------------------------------
1:hadoop-env.sh
这里要配置JAVA_HOME
我个人的: exportJAVA_HOME=/usr/java/jdk1.6.0_27
-------------------------------------------------
2:core-site.xml
-------------------------------------------------
3:hdfs-site.xml
2
-------------------------------------------------
4:mapred-site.xml
-------------------------------------------------
5:masters
6:slaves
master和slaves分别写入master和slave的主机名
-------------------------------------------------
最后把master中的配置文件复制到两台slave中去,使用scp命令
scp -r ~/hadoop-1.1.2 slave1:~
scp -r ~/hadoop-1.1.2 slave2:~
-------------------------------------------------
注意事项
1:手打的容易出错,比如字母打错,单词拼错都有可能,写完多检查,如有报错就看logs。
2:配置文件里面相关的路径目录要在master和slaves中都有相应的存在。