Hadoop集群时间同步(三台机器)

通过上一篇《Hadoop集群搭建(三台Linux服务器)》,集群已经搭建好了,现在开启时期间同步。时间同步就是同步三台机器之间的时间,防止定时任务操作出错。

环境以及版本

  • centos 7
  • jdk1.8
  • Hadoop 2.7.2

集群时间同步概述

  • 时间同步的方式:找一个机器,作为时间服务器,所有的机器与这台集群时间进行定时的同步,比如,每隔十分钟,同步一次时间。
  • 我的三台机器ip以及hostname分别是:
    192.168.40.191,hadoop191
    192.168.40.192,hadoop192
    192.168.40.193,hadoop193
    其中192.168.40.191(hadoop191)作为时间服务器。
  • 同步步骤如下图。

在这里插入图片描述

配置时间同步具体实操

1. 时间服务器配置(必须root用户)

(1)检查ntp是否安装

-- 任意目录输入一下命令
rpm -qa|grep ntp

出现如下图所示说明安装了
在这里插入图片描述
假如没有安装,则进行安装

sudo yum install ntp

(2)修改ntp配置文件

 vi /etc/ntp.conf

修改内容如下

a)修改1(授权192.168.1.0-192.168.1.255网段上的所有机器可以从这台机器上查询和同步时间)

  • 我在这里打开了文件中的注释,mask之前的ip要改成在自己的网络频段,比如我的是192.168.40.191,就要改成192.168.40.0。
    在这里插入图片描述

b)修改2(集群在局域网中,不使用其他互联网上的时间)

  • 注释掉这一部分配置文件,类似的都注释掉。
    在这里插入图片描述
    c)添加3(当该节点丢失网络连接,依然可以采用本地时间作为时间服务器为集群中的其他节点提供时间同步)

  • 粘贴到末尾

server 127.127.1.0
fudge 127.127.1.0 stratum 10

在这里插入图片描述

(3)修改/etc/sysconfig/ntpd 文件

vim /etc/sysconfig/ntpd

添加以下内容

-- 增加内容如下(让硬件时间与系统时间一起同步)
SYNC_HWCLOCK=yes

在这里插入图片描述

(4)重新启动ntpd服务

-- 查看ntpd的运行状态
service ntpd status
-- 启动ntpd
service ntpd start

(5)设置ntpd服务开机启动

-- 测试过程可以不用配置,会影响性能
chkconfig ntpd on

2. 其他机器配置(必须root用户)

-- hadoop192,hadoop193两台节点都要配置。根据自己实际情况。
cd /opt/module/hadoop-2.7.2

(1)在其他机器配置10分钟与时间服务器同步一次

crontab -e

添加下面内容

-- 方便测试,可以设置为1分钟同步一次。
*/1 * * * * /usr/sbin/ntpdate hadoop191
-- 10分钟同步一次。
*/10 * * * * /usr/sbin/ntpdate hadoop191

(2)修改hadoop192,或者hadoop192机器的时间

-- 任意目录下输入命令,修改时间
date -s "2020-10-11 11:11:11"

(3)十分钟后查看机器是否与时间服务器同步

-- 任意目录,查看当前时间
date
要使用三台服务器搭建一个完全分布式的Hadoop集群,你需要按照以下步骤进行操作: 1. 设置主机名和IP:在每台服务器上设置唯一的主机名和IP地址。 2. 配置主机的映射:在每台服务器上配置/etc/hosts文件,将每台服务器的主机名和IP地址进行映射。 3. SSH免密登录:在每台服务器上生成SSH密钥对,并将公钥复制到其他服务器上,以实现服务器之间的免密登录。 4. 关闭防火墙:在每台服务器上关闭防火墙,以确保Hadoop集群的正常通信。 5. 关闭SELinux:在每台服务器上禁用SELinux,以避免与Hadoop的正常运行产生冲突。 6. 安装JDK:在每台服务器上安装JDK,并设置JAVA_HOME环境变量。 7. 设置时间同步服务:在每台服务器上安装并配置NTP时间同步服务,以确保集群中所有服务器的时间同步。 8. 下载和安装Hadoop:在每台服务器上下载Hadoop的二进制文件,并解压到指定目录。你可以使用wget命令下载Hadoop的tar.gz文件,然后使用tar命令解压。 9. 配置Hadoop环境变量:在每台服务器上编辑hadoop-env.sh文件,设置Hadoop的环境变量,如JAVA_HOME、HADOOP_HOME等。 10. 配置Hadoop集群:在每台服务器上编辑core-site.xml、hdfs-site.xml和yarn-site.xml等配置文件,设置Hadoop集群的相关参数,如文件系统地址、副本数量、资源管理器地址等。 11. 启动Hadoop集群:在一台服务器上启动NameNode和ResourceManager,然后在其他服务器上启动DataNode和NodeManager。 请注意,以上步骤仅为概括,并不包含具体的配置细节。在实际操作中,你需要根据你的服务器环境和需求进行相应的配置。详细的操作步骤和配置参数可以参考Hadoop官方文档或其他教程资源。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [hadoop2.7.2分布式集群搭建(三台)](https://blog.csdn.net/PeiBoos/article/details/125914812)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [3台机器配置hadoop集群_Hadoop+Hbase 分布式集群架构](https://blog.csdn.net/wanghengwhwh/article/details/128567974)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值