hadoop启动

1)分别启动HDFS和MapReduce,命令如下:(进入hadoop安装目录)
启动:
start-dfs.sh
start-mapred.sh
停止:
stop-mapred.sh
stop-dfs.sh
(2)全部启动或停止(进入hadoop安装目录)
启动:
start-all.sh
启动顺序:
NameNode->DataNode->SecondaryNameNode->JobTracker->TaskTracker
停止:
stop-all.sh
停止顺序:
JobTracker->TaskTracker->NameNode->DataNode->SecondaryNameNode
(3)每个守护进程逐一启动(进入hadoop安装目录)
启动:
hadoop-daemon.sh start namenode
hadoop-daemon.sh start datanode
hadoop-daemon.sh start secondarynamenode
hadoop-daemon.sh start jobtracker
hadoop-daemon.sh start tasktracker
停止:
hadoop-daemon.sh stop jobtracker
hadoop-daemon.sh stop tasktracker
hadoop-daemon.sh stop namenode
hadoop-daemon.sh stop datanode
hadoop-daemon.sh stop secondarynamenode

注意 正常情况下,我们是不使用start-all.sh和stop-all.sh来启动和停止Hadoop集群的。这样出错了不好找原因。建议读者一个一个守护进程来启动,哪个启动失败就去看相应的log日志,这样就缩小了找错的范围。
 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值