Hadoop企业级集群架构 - DNS安装

1. 配置IP

 

vi /etc/sysconfig/network-scripts/ifcfg-eno16777736

systemctl restart network.service

 

 

ip -4 addr

ping 192.168.1.1

 

vi /etc/hostname

ddd the following line:

dns.hadoop.com

 

 

 

安装DNS软件包

 

yum -y install bind bind-utils bind-chroot

 

 

 

rpm -qa | grep '^bind'

 

 

修改/etc/named.conf

listen-on port 53 { any; }; #将原来的127.0.0.1改为any

allow-query { any; }; #将原来的localhost改为any

 

 

 

修改named.rfc1912.zones

添加入下内容:(也可以直接写在/etc/named.conf中)

 

zone "hadoop.com" IN {

type master;

file "named.hadoop.com";

allow-update { none; };

};

 

zone '1.168.192.in-addr.arpa" IN {

type master;

file "named.192.168.1.zone";

allow-update { none; };

};

 

 

配置正向解析文件

cp named.localhost named.hadoop.com

然后向文件named.hadoop.com添加如下内容

 

$TTL 1D

@ IN SOA dns.hadoop.com. grid.dns.hadoop.com. (

0 ; serial

1D ; refresh

1H ; retry

1W ; expire

3H ) ; minimum

NS dns.hadoop.com.

dns.hadoop.com. IN A 192.168.1.230

h1.hadoop.com. IN A 192.168.1.231

h2.hadoop.com. IN A 192.168.1.232

h3.hadoop.com. IN A 192.168.1.233

h4.hadoop.com. IN A 192.168.1.234

h5.hadoop.com. IN A 192.168.1.235

h6.hadoop.com. IN A 192.168.1.236

h7.hadoop.com. IN A 192.168.1.237

h8.hadoop.com. IN A 192.168.1.238

 

 

 

 

 

 

配置反向解析文件

cp named.localhost named.192.168.1.zone

并添加如下内容:

 

$TTL 1D

@ IN SOA dns.hadoop.com. grid.dns.hadoop.com (

0 ; serial

1D ; refresh

1H ; retry

1W ; expire

3H ) ; minimum

NS dns.hadoop.com.

231 IN PTR h1.hadoop.com.

232 IN PTR h2.hadoop.com.

233 IN PTR h3.hadoop.com.

234 IN PTR h4.hadoop.com.

235 IN PTR h5.hadoop.com.

236 IN PTR h6.hadoop.com.

237 IN PTR h7.hadoop.com.

238 IN PTR h8.hadoop.com.

 

 

查看日志

tail -30 /var/log/messages | grep named

 

 

添加DNS解析服务器IP

(其各节点的机器的IP配置文件中加入DNS1=192.168.1.230)

 

 

 

启动DNS

 

#启动DNS

systemctl start named.service

#设置自启动

systemctl start named.service

#查看DNS状态

systemctl status named.service

 

 

 

验证测试:

 

 

转载于:https://www.cnblogs.com/chujq/p/4966116.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
hadoop-eclipse-plugin-2.7.4-jar是Hadoop的一个插件,用于与Eclipse集成以方便开发和调试Hadoop应用程序。Hadoop是一个用于处理大规模数据集的分布式计算框架,它提供了对大数据的高效处理和存储能力。而Eclipse是一个流行的集成开发环境(IDE),广泛应用于Java开发。 通过hadoop-eclipse-plugin-2.7.4-jar,开发人员可以在Eclipse中创建、编辑和管理Hadoop应用程序。该插件提供了一系列功能,例如创建Hadoop项目、在本地运行和调试Hadoop应用程序、上传和下载文件到Hadoop集群等。 对于开发人员来说,使用hadoop-eclipse-plugin-2.7.4-jar可以带来一些好处。首先,它可以提高开发效率。开发人员可以在熟悉的Eclipse环境中编写Hadoop程序,提供更好的开发体验。其次,该插件提供了一些方便的工具和功能,如Hadoop项目模板、自动补全、错误检测和修复等,能够帮助开发人员更快地发现和解决问题。 另外,hadoop-eclipse-plugin-2.7.4-jar还支持与Hadoop集群的集成。开发人员可以通过插件直接与Hadoop集群进行交互,执行MapReduce任务,查看运行日志等。这使得开发人员可以更方便地调试和优化自己的应用程序。 总之,hadoop-eclipse-plugin-2.7.4-jar是一个强大的插件,通过与Eclipse集成,它为开发人员提供了更好的Hadoop开发环境和更高的开发效率。无论是对新手还是有经验的开发人员来说,该插件都是一个有用的工具,可以帮助他们更轻松地开发和调试Hadoop应用程序。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值