1. startup
在datanode上执行:
$ bin/hadoop namenode -format
$ bin/start-dfs.sh //该命令将查看conf/slaves文件获取datanode节点信息,然后启动datanode
在jobtracker上执行:
bin/start-mapred.sh //该脚本将查看conf/slaves文件获取tasktracker节点信息,然后启动jobtracker
2. shutdown
在datanode上执行:
$ bin/stop-dfs.sh //同上,该命令将查看conf/slaves文件获取datanode节点信息,关闭各个datanode
在jobtracker上执行:
$ bin/stop-mapred.sh //同上,该命令将查看conf/slaves文件获取jobtracker节点信息,关闭各个jobtracker
3. 通过网页查看NameNode和JobTracker
http://master node's IP:50030/jobtracker.jsp
http://master node's IP:50070/dfshealth.jsp
4. 借助java的jps分别在master和slave上查看所有hadoop的java进程
[hadoop@node14 ~]$ jps
14658 SecondaryNameNode
14444 NameNode
14752 JobTracker
[hadoop@node15 ~]$ jps
13833 TaskTracker
13739 DataNode
[hadoop@node16 ~]$ jps
19824 TaskTracker
19715 DataNode