Centos安装Kafka(一次就成功版!)

需要先安装zookeeper,不然可能无法启动,如果还没有安装zookeeper的,可以看下我的这篇文章Centos安装Zookeeper教程(一次就成功版!)-CSDN博客

1.下载并解压kafka

官方下载链接为http://kafka.apache.org/downloads.html

下载后的压缩包放在/opt/software中

请添加图片描述

解压至/opt/module,并修改解压后的文件名称方便使用

tar -zxvf kafka_2.12-3.3.1.tgz -C /opt/module/
cd /opt/module/
mv kafka_2.12-3.3.1/ kafka

在这里插入图片描述

2.修改配置文件

进入到/opt/module/kafka/config目录下,修改配置文件

cd /opt/module/kafka/config
vim server.properties

(1)首先是broker.id,第一个服务器是0可以不用改,但是集群中的broker.id应该唯一,其他服务器的broker.id需要修改

在这里插入图片描述

(2)然后是配置listeners,同样hadoop102需要根据节点名称修改

在这里插入图片描述

(3)配置log.dirs

在这里插入图片描述

(4)配置zookeeper.connect

在这里插入图片描述

配置单个服务器kafka已完毕,需安装集群可以接着往下看

3.修改其余两台服务器配置

以如下集群规划为例:

hadoop102hadoop103hadoop104
kafkakafkakafka

分发安装包,需要的可以搜一下xsync这个脚本,很好用

cd /opt/module
xsync kafka/

分别在hadoop103和hadoop104上修改配置文件/opt/module/kafka/config/server.properties中的broker.id及advertised.listeners

cd /opt/module/kafka/config/
vim server.properties

在这里插入图片描述
在这里插入图片描述

4.配置环境变量

回到hadoop102在/etc/profile.d/my_env.sh文件中增加kafka环境变量配置

sudo vim /etc/profile.d/my_env.sh

添加如下内容

#KAFKA_HOME
export KAFKA_HOME=/opt/module/kafka
export PATH=$PATH:$KAFKA_HOME/bin

刷新环境变量

source /etc/profile

分发环境变量文件到其他节点,并在每个节点source一下

sudo xsync /etc/profile.d/my_env.sh
source /etc/profile

在这里插入图片描述
在这里插入图片描述

5.启动集群

先依次启动zookeeper,再依次在hadoop102、hadoop103、hadoop104节点上启动Kafka。

cd /opt/module/kafka
bin/kafka-server-start.sh -daemon config/server.properties

查看启动情况

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

使用下面的命令行在各集群依次操作可关闭kafka

bin/kafka-server-stop.sh

完工

  • 9
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值