hadoop集群操作常用命令

一、HDFS相关

1、启动NameNode

sbin/hadoop-daemon.sh start namenode

2、启动DataNode
sbin/hadoop-<span style="color:#ff0000;">daemon</span>.sh start datanode
3、启动多个DataNode
sbin/hadoop-<span style="color:#ff0000;">daemons</span>.sh start datanode
4、一次性启动Namenode和DataNode
sbin/start-dfs.sh

5、高可用集群NameNode节点切换

hadoop-daemon.sh stop zkfc
hadoop-daemon.sh start zkfc


二、YARN相关
1、启动Resource Manager
sbin/yarn-daemon.sh start resourcemanager

2、启动Node Manager
sbin/yarn-daemon.sh start nodemanager
3、启动多个NodeManager

sbin/yarn-daemons.sh start nodemanager
4、一次性启动ResourceManager 和 所有NodeManager
sbin/start-yarn.sh

5、启动Job Histroty Server
sbin/mr-jobhistory-daemon.sh start historyserver

三、查看服务
Hadoop主备查询和切换
(1)主备查询
hdfs haadmin -getServiceState nn1
yarn rmadmin -getServiceState rm1    
(2)主备切换
在Hadoop的各种HA中,有个隐藏属性是很多人不知道的,就是强制切换,一般来说,我们通过命令行切换HA,需要去运行
hdfs haadmin -transitionToActive/transitionToStandby nn2
yarn rmadmin -transitionToActive/transitionToStandby rm2
    但是,这种方式在启用了ZKFC做自动失效恢复的状态下是不允许修改的,提示信息里只说了可以强制执行,但是没有提供命令,其实强制切换主备命令很简单。加个forcemanual就好了。
hdfs haadmin -transitionToActive/transitionToStandby nn2 --forcemanual
    但是这样做的后果是,ZKFC将停止工作(我实践发现没停止工作,为啥?),你将不会再有自动故障切换的保障,但是有些时候,这是必须的,特别是有时候,Hadoop的NN在ZKFC正常工作的情况下,也会出现两个standby,两个standby的问题就在于诸如Hive和Pig这种东西,会直接报一个什么 Operation category READ is not supported in state standby 什么什么的,甚至你看着明明一个是active,一个是standby,也会报这个错误,这时候就必须手动强制切换了,强制切换完以后,别忘了重新启动ZKFC就好了。这个强制切换的要求就是用户必须没有任何对元数据的操作,这样才能有效的防止脑裂的发生。应该来说,进入安全模式再切换会比较稳妥一些。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值