1:首先当然是要在hadoop-env.sh设置好JAVA_HOME
2:core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000/</value>
</property>
</configuration>
3:mapred-site.xml
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
4:masters和slaves文件都写入localhost
必须保证ssh localhost能联通
5:格式化
bin/hadoop namenode -format
注意事项:如果是已经运行过的程序,重新格式化时候要删除data目录,否则datanode起不来,data目录在hdfs-site.xml配置,如果你没配置,请参考hadoop主目录下logs目录,里边记录了启动时log,里边有类似hadoop-root-datanode-****.log,可以用ls -cltr看到最新的一个,查看其报的异常也能找到原因
6:启动
bin/start-all.sh
7:jps查看状态,输出如下
6314 NameNode
6814 TaskTracker
6588 SecondaryNameNode
6880 Jps
6687 JobTracker
6431 DataNode
8:关闭
bin/stop-all.sh