hadoop机架感知配置——HDFS

编辑core-site.xml配置文件,将脚本配置为topology.script.file.name的值
进入到
/export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop
的位置编辑core-site.xml配置文件,将下面的代码添加到文件的末尾并保存

topology.script.file.name
/home/bigdata/apps/hadoop/etc/hadoop/RackAware.py

最后进入到
/export/servers/hadoop-2.6.0-cdh5.14.0/sbin
的位置重新启动hadoop的相关节点服务,运行正常后打开浏览器
输入http://192.168.10.201:8088/cluster/nodes
点击Nodes查看是否修改成功

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档


前言

机架感知需要人为进行配置,编写Python脚本“RackAware.py”。内容为服务器IP与交换机的对应关系。(开源hadoop,使用RackAware.sh)


一、编写Python脚本“RackAware.py”

1: 选择主节点进入到

/export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop

编写Python脚本“RackAware.py”

#!/usr/bin/python  
#-*-coding:UTF-8 -*-  
import sys  
  
rack = {  

     "192.168.10.201":"SW6300-1",
     "192.168.10.202":"SW6300-2",
     "192.168.10.203":"SW6300-3",
		}  
if __name__=="__main__":  
    print "/" + rack.get(sys.argv[1],"SW6300-1-2")

注:
IP后的交换机名可根据自己需求编写RackAware.py 的权限需要修改,不然后出现权限不够的报错!

chmod 777 RackAware.py

2: 然后scp到其他节点的相同路径的位置保存后用以下代码验证看是否成功

[root@node01 sbin]# python RackAware.py 192.168.10.201
/SW6300-1 
[root@node01 sbin]# python RackAware.py 192.168.10.202
/SW6300-2
[root@node01 sbin]# python RackAware.py 192.168.10.203
/SW6300-3

二、编辑core-site.xml配置文件

编辑core-site.xml配置文件,
将脚本配置为topology.script.file.name的值
先进入到

/export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop

的位置编辑core-site.xml配置文件,将下面的代码添加到文件的末尾并保存

<property>
<name>topology.script.file.name</name>
<value>/home/bigdata/apps/hadoop/etc/hadoop/RackAware.py</value>
</property>

最后进入到

/export/servers/hadoop-2.6.0-cdh5.14.0/sbin

的位置重新启动hadoop的相关节点服务,运行正常后打开浏览器
输入

http://192.168.10.201:8088/cluster/nodes

点击Nodes查看是否修改成功。
在这里插入图片描述


  • 4
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值