bash: mr-jobhistory-daemon.sh: command not found...

你看的教程是旧的,新版的hadoop启动脚本放在sbin下。start-all.sh已经逐渐被废弃,采用新的启动脚本:

1

2

3

4

5

sbin/hadoop-daemon.sh  --script hdfs start datanode

sbin/hadoop-daemon.sh  --script hdfs start namenode

sbin/yarn-daemon.sh  start resourcemanager

sbin/yarn-daemon.sh  start proxyserver

sbin/mr-jobhistory-daemon.sh  start historyserver

【注意1】.不要随意执行上述命令,需要你规划好那几个节点是namenode, 哪些节点是datanode, 哪个节点是resourcemanager, proxyserver, 以及historyserver

【注意2】.sbin/hadoop-daemon.sh  --script hdfs start datanode 执行后只能只能启动当前节点;

1

sbin/hadoop-daemons.sh  --script hdfs start datanode

可以启动etc/hadoop/slaves中指定的datanode

【注意3】. 最新版本(hadoop2.2.0)的启动脚本libexec/hadoop-config.sh有bug, 若想用

1

sbin/hadoop-daemons.sh  --hosts your_host_files --script hdfs start datanode

启动节点,注意修改libexec/hadoop-config.sh第98行为:

1

98     elif "--hostnames" "$1" ]

同时要小心--hosts your_host_files option, 用户指定的your_host_files一定放在etc/hadoop/下面,但是启动时只指定该文件名,不包含任何路径名,这也是该启动脚本的一个缺陷。

【注意4】. 也可以采用

1

sbin/hadoop-daemons.sh  --hostnames your_host_name --script hdfs start datanode

启动某个节点

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值