第 13 篇 : 安装Kafka-集群

说明

因为目前SpringBoot只支持到2.8.1,所以kafka集群以2.8.1版本搭建,且kafka3.0.0已开始弃用Java8…

1. 清除160机器的历史数据

1.1 删除日志

rm -rf /tmp/kafka-logs
rm -rf /usr/local/src/kafka_2.13-3.0.0/
ls

删除3.0.0版本

1.2 进入Zookeeper客户端,删除掉历史的brokers

deleteall /brokers

2. 依次把压缩包上传到161,162,并解压

cd /usr/local/src/
tar -zxvf kafka_2.13-2.8.1.tgz
rm -rf kafka_2.13-2.8.1.tgz

3. 修改配置,以160机器为例

vi kafka_2.13-2.8.1/config/server.properties
i

官方文档 3.1 中列举了的3个重要参数 : broker.id, log.dirs, zookeeper.connect

官方文档 6.5 给出了一个生产环境的示例配置,官方建议手动创建topic

21 行 broker编号,每个服务不一样,160配成0,161配成1,162配成2

broker.id=0

31 行 服务IP和端口,格式参照官方 : listeners = PLAINTEXT://your.host.name:9092

listeners=PLAINTEXT://192.168.109.160:9092

PLAINTEXT可以替换为下面几个(后续再研究具体安全协议),官方文档截图如下
官方安全验证

可选操作60 行 消息日志文件位置,

log.dirs=/tmp/kafka-logs

65 行 每个Topic的partition数量,我暂设4个(官方示例是8)

num.partitions=4

74,75,76 行 备份数量

offsets.topic.replication.factor=3
transaction.state.log.replication.factor=3
transaction.state.log.min.isr=2

123 行 连接到Zookeeper集群的地址,此处配置3台机器一致

zookeeper.connect=192.168.109.160:2181,192.168.109.161:2181,192.168.109.162:2181

文末追加内容,138行到141
按理来说,不应该自动创建主题,但有些公司应该都是自动创建(大公司不知道),我这里自动创建

default.replication.factor=3
# auto.create.topics.enable=false
min.insync.replicas=2
queued.max.requests=500
Esc
:wq

开放9092端口

firewall-cmd --query-port=9092/tcp
firewall-cmd --zone=public --add-port=9092/tcp --permanent
firewall-cmd --reload

4. 编写启动脚本

cd ~
vi kafka-start.sh
i

脚本内容

cd /usr/local/src/kafka_2.13-2.8.1/bin/
kafka-server-start.sh ../config/server.properties &
Esc
:wq

sudo chmod -R 777 kafka-start.sh

5. 分别在3台机器上启动Kafka,160机器只多一个Nacos服务

./kafka-start.sh
Enter
jps -l

查看服务

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Kafka 中,Producer 是用来发送消息到 Kafka 集群的组件。在本文章中,我们将介绍如何使用 KafkaJava 客户端 API 来编写一个简单的 Producer。 1. 引入 Kafka 依赖 首先,需要在 Maven 或 Gradle 构建中引入 Kafka 客户端依赖: ```xml <dependency> <groupId>org.apache.kafka</groupId> <artifactId>kafka-clients</artifactId> <version>2.8.0</version> </dependency> ``` 2. 创建 Producer 实例 接下来,在 Java 代码中创建一个 KafkaProducer 实例: ```java Properties props = new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); Producer<String, String> producer = new KafkaProducer<>(props); ``` 其中,bootstrap.servers 是必须设置的属性,用于指定 Kafka 集群中至少一个 Broker 的地址。key.serializer 和 value.serializer 用于指定消息的键和值的序列化器。这里我们使用的是 StringSerializer,也可以使用其他序列化器实现自定义序列化逻辑。 3. 发送消息 一旦创建了 KafkaProducer 实例,就可以使用它来发送消息到指定的 Kafka 主题: ```java ProducerRecord<String, String> record = new ProducerRecord<>("test-topic", "key", "value"); producer.send(record); ``` 这里的 ProducerRecord 构造函数中,第一个参数是要发送消息的主题名称,第二个参数是消息的键,第三个参数是消息的值。send() 方法用于将 ProducerRecord 发送到 Kafka 集群。 4. 关闭 Producer 在使用完 Producer 后,需要关闭它以释放资源: ```java producer.close(); ``` 完整代码示例: ```java import org.apache.kafka.clients.producer.*; import java.util.Properties; public class KafkaProducerExample { public static void main(String[] args) { Properties props = new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); Producer<String, String> producer = new KafkaProducer<>(props); ProducerRecord<String, String> record = new ProducerRecord<>("test-topic", "key", "value"); producer.send(record); producer.close(); } } ``` 这就是一个简单的 Kafka Producer 的使用示例。在实际应用中,还可以根据需要设置其他属性,例如消息的分区策略、消息的压缩方式等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

哈哈兽0026

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值