Kafka集群搭建

搭建Kafka集群

1.1、准备3台虚拟机

192.168.140.128 kafka01

192.168.140.129 kafka02

192.168.140.130 kafka03

1.2、初始化环境

1)安装jdk、安装zookeeper

2)安装目录

         安装包存放的目录:/export/software

安装程序存放的目录:/export/servers

数据目录:/export/data

日志目录:/export/logs

mkdir -p /export/servers/

mkdir -p /export/software /

mkdir -p /export/data /

mkdir -p /export/logs /

 

3)安装用户

         安装hadoop,会创建一个hadoop用户

         安装kafka,创建一个kafka用户

        

         或者 创建bigdata用户,用来安装所有的大数据软件。

        

         本例:使用root用户

 

  1. 验证环境
    1. jdk环境

    1. zookeeper环境

 

zkServer.sh status

1.3、搭建Kafka集群

1.3.1、准备安装包

由于kafka是scala语言编写的,基于scala的多个版本,kafka发布了多个版本。

其中2.11是推荐版本。

4.3.2、下载安装包及解压

tar -zxvf kafka_2.11-1.0.0.tgz -C /export/servers/

cd /export/servers/

rm -rf /export/servers/kafka

rm -rf /export/logs/kafka/

rm -rf /export/data/kafka

mv kafka_2.11-1.0.0 kafka

  1. 解压文件
  2. 删除之前的安装记录
  3. 重命名

1.3.3、查看目录及修改配置文件

1.3.3.1查看目录

 

1.3.3.2修改配置文件

进入配置目录,查看server.properties文件

cat server.properties |grep -v "#"

 

通过以上命令,查看到了默认的配置文件,对默认的文件进行修改。

修改三个地方

  1. Borker.id
  2. 数据存放的目录,注意目录如果不存在,需要新建下。
  3. zookeeper的地址信息

# broker.id 标识了kafka集群中一个唯一broker。

broker.id=0

num.network.threads=3

num.io.threads=8

socket.send.buffer.bytes=102400

socket.receive.buffer.bytes=102400

socket.request.max.bytes=104857600

 

# 存放生产者生产的数据 数据一般以topic的方式存放

# 创建一个数据存放目录 /export/data/kafka  ---  mkdir -p /export/data/kafka

log.dirs=/export/data/kafka

 

 

num.partitions=1

num.recovery.threads.per.data.dir=1

offsets.topic.replication.factor=1

transaction.state.log.replication.factor=1

transaction.state.log.min.isr=1

log.retention.hours=168

log.segment.bytes=1073741824

log.retention.check.interval.ms=300000

 

# zk的信息

zookeeper.connect=zk01:2181,zk02:2181,zk03:2181

zookeeper.connection.timeout.ms=6000

group.initial.rebalance.delay.ms=0

 

4.3.4、分发配置文件及修改brokerid

将修改好的配置文件,分发到node02,node03上。

先在node02、node03上删除以往的安装记录

rm -rf /export/servers/kafka

rm -rf /export/logs/kafka/

rm -rf /export/data/kafka

 

分发安装包

scp -r /export/servers/kafka/ node02:/export/servers/

scp -r /export/servers/kafka/ node03:/export/servers/

 

修改node02上的broker.id

vi /export/servers/kafka/config/server.properties

 

 

修改node03上的broker.id

vi /export/servers/kafka/config/server.properties

1.3.4、启动集群

cd /export/servers/kafka/bin

./kafka-server-start.sh /export/servers/kafka/config/server.properties

 

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要Windows上搭建Kafka集群,你需要按照以下步骤进行操作: 1. 下载Kafka安装包并解压缩。你可以在中找到Windows下的安装包和详细教程。 2. 配置Zookeeper集群Kafka依赖于Zookeeper进行集群管理。你可以在Kafka安装目录下的config文件夹中找到zookeeper.properties文件。打开该文件并配置Zookeeper集群的地址和端口。 3. 配置Kafka集群。你可以在Kafka安装目录下的config文件夹中找到server.properties文件。打开该文件并根据需要进行配置,比如监听地址、端口等。 4. 启动Zookeeper集群。可以使用命令行或者批处理文件启动Zookeeper集群。在命令行中执行"zookeeper-server-start.bat"命令,指定zookeeper.properties文件的路径,就可以启动Zookeeper集群。 5. 启动Kafka集群。使用命令行或者批处理文件启动Kafka集群。在命令行中执行"kafka-server-start.bat"命令,指定server.properties文件的路径,就可以启动Kafka集群。 6. 验证Kafka集群是否正常工作。你可以在命令行中执行"kafka-topics.bat --list --bootstrap-server localhost:9092"命令,验证是否能够列出Kafka集群中的主题。 这样,你就成功在Windows上搭建Kafka集群。希望这些步骤对你有帮助!<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [专栏大数据中windows下搭建kafka集群中需要用到的安装包](https://download.csdn.net/download/abc8125/86250322)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [Windows下Kafka集群搭建](https://blog.csdn.net/HcJsJqJSSM/article/details/126752143)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值