Kafka Kraft模式集群 + ssl

启用集群

配置集群时关键就是提前梳理好需要的网络资源,完成对应server.properties文件的配置。在执行前先把这些梳理好,可以方便后面的配置,也不容易出错,其他操作跟单机Kafka版都是一样的。
一般需要提前规划各节点所在服务器、端口、Kafka安装路径、数据存放位置、配置文件位置、ssl证书位置(需要配置的ssl的话才需要)。对于测试,如果所有节点都在同一台服务器上,直接使用同一个Kafka搭配多个不同配置文件启动多个实例就行。

资源规划

下面是通过一台服务器的多个端口仿照多台服务器,配置3个节点的集群,大概需要以下资源:

服务器地址broker端口controller端口安装位置配置文件数据证书位置
192.168.1.190929095/home/kafka-cluster/broker1/home/kafka-cluster/broker1/config/data/kafka/broker1/usr/ca/ssl
192.168.1.190939096/home/kafka-cluster/broker2/home/kafka-cluster/broker2/config/data/kafka/broker2/usr/ca/ssl2
192.168.1.190949097/home/kafka-cluster/broker3/home/kafka-cluster/broker3/config/data/kafka/broker3/usr/ca/ssl3

如果是在多台服务器上配置,可以直接配置好一台,复制server.properties或者整个kafka到其他服务器,这样可以减少很多重复性工作。只需要保证把证书生成到相同的路径下,就不用做重复其他工作了。

准备证书

证书生成可以参考上一篇单机Kafka配置ssl并在springboot使用
生成的各节点证书如下:
在这里插入图片描述

创建相关文件夹

Kafka及配置文件位置:
在这里插入图片描述
各节点数据位置:
在这里插入图片描述

配置文件

broker1配置文件:

#SSL配置部分
listeners=SSL://:9092
#下面的localhost需要改成ip,否则只有自己能连上
advertised.listeners=SSL://localhost:9092
security.inter.broker.protocol=SSL
ssl.endpoint.identification.algorithm=
ssl.keystore.location=/usr/ca/ssl/keystore.jks
ssl.keystore.password=123456
ssl.key.password=123456
ssl.truststore.location=/usr/ca/ssl/truststore.jks
ssl.truststore.password=123456
#这里配置成双向认证
ssl.client.auth=required
# 不验证客户端证书
#ssl.client.auth=none

# 在集群中的编号,只要保持唯一就行,
broker.id=1

#Kraft模式的集群关键配置就是这一句,每个节点多配置了一个controller端口
controller.quorum.voters=1@kafka1:9095,2@kafka1:9096,3@kafka1:9097

log.dirs=/data/kafka/broker1
#后面的配置都是默认的,可以不用管
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
num.partitions=1
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=1 
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.retention.hours=168
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
#虽然Kraft模式的集群不需要zookeeper,但是这个配置是必须要有的,否则会报错
zookeeper.connect=localhost:2181
zookeeper.connection.timeout.ms=18000
group.initial.rebalance.delay.ms=0

broker2配置文件:

listeners=SSL://:9093
#下面的localhost需要改成ip,否则只有自己能连上
advertised.listeners=SSL://localhost:9093
security.inter.broker.protocol=SSL
ssl.endpoint.identification.algorithm=
ssl.keystore.location=/usr/ca/ssl2/keystore.jks
ssl.keystore.password=123456
ssl.key.password=123456
ssl.truststore.location=/usr/ca/ssl/truststore.jks
ssl.truststore.password=123456
#这里配置成双向认证
ssl.client.auth=required
# 不验证客户端证书
#ssl.client.auth=none  

broker.id=2

controller.quorum.voters=1@kafka1:9095,2@kafka1:9096,3@kafka1:9097
log.dirs=/data/kafka/broker2

#后面的配置都是默认的,可以不用管
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
num.partitions=1
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.retention.hours=168
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
zookeeper.connect=localhost:2181
zookeeper.connection.timeout.ms=18000
group.initial.rebalance.delay.ms=0

broker3配置文件:

listeners=SSL://:9094
#下面的localhost需要改成ip,否则只有自己能连上
advertised.listeners=SSL://localhost:9094
security.inter.broker.protocol=SSL
ssl.endpoint.identification.algorithm=
ssl.keystore.location=/usr/ca/ssl3/keystore.jks
ssl.keystore.password=123456
ssl.key.password=123456
ssl.truststore.location=/usr/ca/ssl/truststore.jks
ssl.truststore.password=123456
#这里配置成双向认证
ssl.client.auth=required
# 不验证客户端证书
#ssl.client.auth=none 

broker.id=3

controller.quorum.voters=1@kafka1:9095,2@kafka1:9096,3@kafka1:9097
log.dirs=/data/kafka/broker3

#后面的配置都是默认的,可以不用管
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
num.partitions=1
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.retention.hours=168
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
zookeeper.connect=localhost:2181
zookeeper.connection.timeout.ms=18000
group.initial.rebalance.delay.ms=0

集群关键配置:

broker.id=3
controller.quorum.voters=1@kafka1:9095,2@kafka1:9096,3@kafka1:9097 

其他的配置项单机也要配置,集群只是保证broker id的唯一性且增加controller配置,controller配置中的kafka1为对应服务器hosts的主机名。

启动各Kafka节点

cd到对应Kafka路径下(比如broker1就cd /home/kafka-cluster/broker1)执行以下命令或者使用绝对路径执行,

./bin/kafka-server-start.sh   -daemon  config/server.properties

故障转移测试

故障前的集群状态:
在这里插入图片描述
原leader故障后从broker1转到broker2
在这里插入图片描述
恢复原来的leader节点之后,会自动切回去
在这里插入图片描述

spring boot集成

其他配置跟单机Kafka配置ssl并在springboot使用是一样的,只需要把bootstrap-servers改成多个节点的情况就行,其中kafka是项目服务器hosts配置的主机名

bootstrap-servers: kafka:9092,kafka:9093,kafka:9094

### 如何配置Kafka KRaft模式 #### 准备工作 为了确保Kafka KRaft模式能够顺利运行,在开始之前需要完成一些准备工作。这包括但不限于安装Java环境以及下载对应版本的Apache Kafka软件包[^1]。 #### 创建并初始化元数据日志文件夹 对于每一个计划部署Kafka服务实例的机器而言,都需要创建专门用来保存该节点上产生的元数据的日志文件夹。此操作可以通过命令行工具来实现,具体路径可以根据实际情况设定。例如: ```bash mkdir -p /path/to/kraft/data/logs ``` #### 编辑`server.properties`配置文件 针对每台服务器上的`server.properties`文件作出相应调整以适应KRaft模式的要求。关键参数如下所示: - `process.roles=broker,controller`: 表明当前节点既扮演Broker角色也承担Controller职责; - `node.id=<unique_id>`: 设置唯一的节点ID; - `listener.security.protocol.map=PLAINTEXT:PLAINTEXT,SSL:SSL,SASL_PLAINTEXT:SASL_PLAINTEXT,SASL_SSL:SASL_SSL`; - `listeners=PLAINTEXT://your.host.name:9092`: 定义监听地址及端口; - `advertised.listeners=PLAINTEXT://your.external.host.name:9092`: 对外发布的监听信息; - `controller.quorum.voters=<comma_separated_list_of_controller_nodes>`: 指定参与投票选举控制器成员列表; 以上设置均需依据实际场景灵活修改[^3]。 #### 初始化集群状态 利用Kafka自带脚本对新加入的节点执行初始化过程,从而让其知晓整个集群的状态和其他成员的信息。可以采用如下方式来进行初始化: ```bash bin/kafka-storage.sh format -t <cluster.unique.id> --ignore-formatted ``` 这里需要注意的是,`<cluster.unique.id>`应该是一个全局范围内独一无二字符串,用于标识这个特定的Kafka集群[^4]。 #### 启动Kafka服务 一旦上述步骤全部完成后,则可以在各个节点分别启动对应的Kafka进程。如果一切正常的话,最终应当可以看到所有预期中的Broker均已成功上线,并形成一个完整的分布式系统。 #### 使用Docker Compose简化部署流程 除了手动逐个配置各节点之外,还可以借助于Docker Compose这样的容器编排工具进一步降低复杂度。这种方式允许用户在一个单独的YAML定义文档里描述多个相互关联的服务组件及其依赖关系,进而达到一键式快速搭建的目的。 ```yaml version: '3' services: zookeeper: image: wurstmeister/zookeeper ports: - "2181:2181" broker1: ... broker2: ... networks: default: driver: bridge volumes: zk-data: kraft-broker1-data: kraft-broker2-data: ``` 请注意,具体的`docker-compose.yml`内容会根据个人需求有所不同,因此建议参照官方文档或其他可靠资源获取最准确模板。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值