HDFS 启动与关闭

一.HDFS 启动与关闭

HDFS 和普通的硬盘上的文件系统不一样,是通过Java 虚拟机运行在整个集群当中的,所以当Hadoop 程序写好之后,需要启动HDFS 文件系统,才能运行。
HDFS 启动过程如下:
1)进入到NameNode 对应节点的Hadoop 安装目录下。
2)执行启动脚本:
bin/start-dfs.sh 
这一脚本会启动NameNode,然后根据conf/slaves 中的记录逐个启动DataNode,最后根据conf/masters 中记录的Secondary NameNode 地址启动SecondaryNameNode。
HDFS 关闭过程如下:
运行以下关闭脚本:
bin/stop-dfs.sh 

这一脚本的运行过程正好是bin/start-dfs.sh 的逆过程,关闭Secondary NameNode,然后是每个DataNode,最后是NameNode 自身。

 
  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值