flink hadoop zookeeper hbase kafka集群的搭建与部署

本文详细介绍了如何在4台CentOS8机器上搭建Flink、Hadoop、Zookeeper、Hbase和Kafka集群。从基础设置、Java环境配置到各个组件的安装、环境变量设置、配置文件修改以及集群启动,每个步骤都有清晰的说明。通过此指南,读者可以成功构建完整的大数据处理环境。
摘要由CSDN通过智能技术生成

https://blog.csdn.net/WenWu_Both/article/details/84890848

https://blog.csdn.net/qq_38617531/article/details/86675403

目录

0 环境准备

1 Linux环境准备

1.1 基础设置

1.2 Java环境

2 Hadoop集群

3 Spark安装(未部署测试)

4 Zookeeper集群

5 Hbase集群

6 Kafka集群


0 环境准备

apache-zookeeper-3.6.3-bin.tar.gz

flink-1.7.2-bin-hadoop28-scala_2.12.tgz

hadoop-2.8.5.tar.gz

hbase-2.3.5-bin.tar.gz

kafka_2.12-2.6.2.tgz

4台机器(CentOS8),1个master,3个slave

 

1 Linux环境准备

1.1 基础设置

  • 修改主机名

hostnamectl set-hostname master
reboot

其他3台机器依次将设置为slave1,slave2,slave3。

  • 修改IP地址

vi /etc/sysconfig/network-scripts/ifcfg-ens33 
​
TYPE="Ethernet"
PROXY_METHOD="none"
BROWSER_ONLY="no"
BOOTPROTO="static"
DEFROUTE="yes"
IPV4_FAILURE_FATAL="no"
IPV6INIT="yes"
IPV6_AUTOCONF="yes"
IPV6_DEFROUTE="yes"
IPV6_FAILURE_FATAL="no"
IPV6_ADDR_GEN_MODE="stable-privacy"
NAME="ens33"
UUID="c35b7341-8921-48f5-ad7a-08cb5af4ba54"
DEVICE="ens33"
ONBOOT="yes"
IPADDR=192.168.2.10
NETMASK=255.255.255.0
GATEWAY=192.168.2.1
DNS1=114.114.114.114
DNS2=8.8.8.8
​
service network restart

其他3台机器依次将设置为2.11,2.12,2.13。

  • 关闭防火墙

systemctl stop firewalld
systemctl disable firewalld
  • ssh通信

// 生成密钥
ssh-keygen -t rsa
// 将公钥追加到验证表中
cat id_rsa.pub >> ~/.ssh/authorized_keys 
// 将公钥追加到其他主机验证表中
ssh-copy-id -i ~/.ssh/id_rsa.pub root@slave1
ssh-copy-id -i ~/.ssh/id_rsa.pub root@slave2
ssh-copy-id -i ~/.ssh/id_rsa.pub root@slave3
  • 配置hosts,以便DNS解析主机名

vim /etc/hosts
​
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.2.10 master
192.168.2.11 slave1
192.168.2.12 slave2
192.168.2.13 slave3
​
拷贝给其他主机:
scp /etc/hosts root@slave1:/etc/

1.2 Java环境

1.2.1 安装包拷贝、解压

将压缩包拷贝至Linux系统中,移动到/usr/software/java目录下,并解压:

mv jdk-8u202-linux-x64.tar.gz /usr/software/java
tar -zxvf jdk-8u202-linux-x64.tar.gz

1.2.2 设置环境变量

vi /etc/profile
​
export JAVA_HOME=/usr/software/jdk
export JRE_HOME=$JAVA_HOME/jre
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
export CLASS_PATH=.:$JAVA_HOME/lib:$JRE_HOME/lib

Esc[:wq]保存后,执行以下命令让其当即生效:

source /etc/profile

输入:

java -version
​
出现以下信息则表明jdk安装成功:
java version "1.8.0_202"
Java(TM) SE Runtime Environment (build 1.8.0_202-b12)
Java HotSpot(TM) 64-Bit Server VM (build 25.202-b12, mixed mode)

2 Hadoop集群

2.1 安装包拷贝、解压

将压缩包拷贝至Linux系统中,移动到/usr/software/hadoop目录下,并解压:

mv hadoop-3.0.3.tar.gz /usr/software/hadoop
tar -zxvf hadoop-3.0.3.tar.gz

2.2 设置环境变量

vi /etc/profile
​
export HADOOP_INSTALL=/usr/software/hadoop
export PATH=$PATH:$HADOOP_INSTALL/bin:$HADOOP_INSTALL/sbin

Esc[:wq]保存后,执行以下命令让其当即生效:

source /etc/profile

2.3 修改启动文件

主要为hadoop指定java环境:

vi /usr/software/hadoop/etc/hadoop/hadoop-env.sh

添加如下内容后保存:
JAVA_HOME=/usr/software/jdk

使其当即生效:
source /usr/software/hadoop/etc/hadoop/hadoop-env.sh

输入:

hadoop version
​
出现以下信息则表明hadoop安装成功:
Hadoop 2.8.5
Subversion https://git-wip-us.apache.org/repos/asf/hadoop.git -r 0b8464d75227fcee2c6e7f2410377b3d53d3d5f8
Compiled by jdu on 2018-09-10T03:32Z
Compiled with protoc 2.5.0
From source with checksum 9942ca5c745417c14e318835f420733
This command was run using /usr/software/had
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值