core-site.xml 文件配置
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/home/hadoop/hadoop/tmp</value>
<description>Abase for other temporary directories.</description>
</property>
</configuration>
hdfs-site.xml 文件配置
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value> 备份节点的数量为1个 一般为三个就可以
</property>
<property><name>dfs.namenode.name.dir</name> 默认目录的名字以及为之
<value>file:/home/hadoop/hadoop/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name> 默认文件的位置以及名字
<value>file:/home/hadoop/hadoop/tmp/dfs/data</value>
</property>
</configuration>
mapred-site.xml 文件配置
<configuration>
<property>
<name>mapred.job.tracker</name> mapreadusee的守护进程的端口以及地址
<value>master:9001</value>
</property>
</configuration>
slaves 配置
master 里面存放的是每个节点的地址
注意
hadoop-env.sh 里面的java的环境有可能需要进行还更该一下 将原来的默认的路径注释掉换成自己的绝对路经