配置hadoop集群二

hadoop环境搭建初始篇基本就能够满足集群的搭建。本篇主要是对环境搭建更好的细化和问题的分析。

第一次启动Hadoop,必须先格式化namenode

#cd $HADOOP_HOME /bin

#hadoop namenode –format

如果出现错误,可以试着尝试一下删除tmp临时目录。


启动Hadoop

#cd $HADOOP_HOME/bin

#./start-all.sh

如果启动过程,报错safemode相关的Exception

执行命令

# hadoop dfsadmin -safemode leave

然后再启动Hadoop



终端查看集群状态:

#hadoop dfsadmin -report    



增加一个节点:

1.修改新节点的/etc/hosts,增加namenode的主机名与IP
2.修改namenode的配置文件conf/slaves

添加新增节点的ip或host

3.在新节点的机器上,启动服务

#cd $HADOOP_HOME/bin

#./hadoop-daemon.sh start datanode

#./hadoop-daemon.sh start tasktracker

4.在NameNode节点执行

# hadoop  dfsadmin  -refreshNodes

5.均衡block

在新节点上执行(如果是增加多个节点,只需在一个新节点)

#cd $HADOOP_HOME/bin

# ./start-balancer.sh 

注意事项

1.必须确保slavefirewall已关闭;

2. 确保新的slaveip已经添加到master及其他slaves/etc/hosts中,反之也要将master及其他slaveip添加到新的slave/etc/hosts



删除节点:

在hadoop0上修改conf/hdfs-site.xml文件

 <property>

   <name>dfs.hosts.exclude</name>

  <value>/usr/local/hadoop/conf/excludes</value>

 </property>

l确定要下架的机器

dfs.hosts.exclude定义的文件内容为,每个需要下线的机器,一行一个。

l强制重新加载配置

#hadoop dfsadmin  -refreshNodes

关闭节点

hadoop dfsadmin -report

可以查看到现在集群上连接的节点

正在执行Decommission,会显示:

Decommission Status : Decommission in progress   

执行完毕后,会显示:

Decommission Status : Decommissioned

再次编辑excludes文件

一旦完成了机器下架,它们就可以从excludes文件移除了

登录要下架的机器,会发现DataNode进程没有了,但是TaskTracker依然存在,需要手工处理一下



hadoop管理员常用的命令:

hadoop job –list  #列出正在运行的Job

hadoop job –kill <job_id> #kill job

hadoop fsck / #检查HDFS块状态,是否损坏

hadoop fsck / -delete #检查HDFS块状态,删除损坏块

hadoop dfsadmin –report #检查HDFS状态,包括DN信息

hadoop dfsadmin –safemode enter | leave

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值