kafka3.0版本部署及相关命令汇总

docker安装过程:Apache Kafka® Quick Start - Docker

注意:如果想要跨机器访问,对应的yaml配置如下:

---
version: '2'
services:
  zookeeper:
    image: confluentinc/cp-zookeeper:7.0.1
    restart: always
    container_name: zookeeper
    environment:
      ZOOKEEPER_CLIENT_PORT: 2181
      ZOOKEEPER_TICK_TIME: 2000

  broker:
    image: confluentinc/cp-kafka:7.0.1
    restart: always
    container_name: broker
    ports:
    # To learn about configuring Kafka for access across networks see
    # https://www.confluent.io/blog/kafka-client-cannot-connect-to-broker-on-aws-on-docker-etc/
      - "9092:9092"
    depends_on:
      - zookeeper
    environment:
      KAFKA_BROKER_ID: 1
      KAFKA_ZOOKEEPER_CONNECT: 'zookeeper:2181'
      KAFKA_LISTENER_SECURITY_PROTOCOL_MAP: PLAINTEXT:PLAINTEXT,PLAINTEXT_INTERNAL:PLAINTEXT
      KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://IP:9092,PLAINTEXT_INTERNAL://broker:29092
      KAFKA_OFFSETS_TOPIC_REPLICATION_FACTOR: 1
      KAFKA_TRANSACTION_STATE_LOG_MIN_ISR: 1
      KAFKA_TRANSACTION_STATE_LOG_REPLICATION_FACTOR: 1
  kafka-manager:
    image: kafka-manager
    restart: always
    container_name: kafka-manager
    hostname: kafka-manager
    ports:
      - 9010:9000
    links:
      - broker
    external_links:
      - zookeeper
    environment:
      ZK_HOSTS: zookeeper:2181

启动顺序,

第一步安装java1.8,https://blog.csdn.net/sslfk/article/details/122806226

java环境变量配置:Linux普通用户对java环境变量进行配置 - 温馨世界 - 博客园

第二步:安装kafka3.0.0,内置zookeeper,Apache Kafka,直接解压即可

第三步启动zookeeper

线程守护启动,可以防止进程异常死亡:

守护进程模式启动安全可靠,进程不会异常死亡:
./zookeeper-server-start.sh -daemon ../config/zookeeper.properties 1>/dev/null 2>&1 &
守护进程模式启动安全可靠,进程可能异常死亡:
./zookeeper-server-start.sh ../config/zookeeper.properties 1>/dev/null 2>&1 &

第四步:配置kafka

config/server1.properties:
broker.id=0
listeners=PLAINTEXT://IP:9092
log.dirs=kafka-logs
zookeeper.connect=localhost:2181

第五步:启动kfakfa

守护进程启动,防止异常死亡:
./kafka-server-start.sh -daemon ../config/server.properties 1>/dev/null 2>&1 &
非守护进程启动,容易异常死亡:
./kafka-server-start.sh ../config/server.properties 1>/dev/null 2>&1 &

其他相关命令:

停止kafka
./kafka-server-stop.sh
停止zookeeper
./zookeeper-server-stop.sh
启动zookeeper
守护进程模式启动安全可靠,进程不会异常死亡:
./zookeeper-server-start.sh -daemon ../config/zookeeper.properties 1>/dev/null 2>&1 &
守护进程模式启动安全可靠,进程可能异常死亡:
./zookeeper-server-start.sh ../config/zookeeper.properties 1>/dev/null 2>&1 &

启动kafka
守护进程启动,防止异常死亡:
./kafka-server-start.sh -daemon ../config/server.properties 1>/dev/null 2>&1 &
非守护进程启动,容易异常死亡:
./kafka-server-start.sh ../config/server.properties 1>/dev/null 2>&1 &

topic创建:
./kafka-topics.sh --create --bootstrap-server IP:9092 --replication-factor 1 --partitions 1 --topic test1

当前topic列表查看:
./kafka-topics.sh --list --bootstrap-server IP:9092

修改topic的partition数:
kafka-topics.sh --bootstrap-server IP:9092 --alter --topic mytest --partitions 5

topic对应的消息查看:
./kafka-topics.sh --describe --bootstrap-server IP:9092

topic删除:
./kafka-topics.sh --delete --bootstrap-server IP:9092  --topic test1

查看消费者组列表:
./kafka-consumer-groups.sh --bootstrap-server 127.0.0.1:9092 --list
查看消费者组的消费情况:
./kafka-consumer-groups.sh --describe --bootstrap-server 127.0.0.1:9092 --group invoiceUpload

kafka默认保存数据的周期是7天,如果磁盘空间有限,可以减少保存周期

配置方式为:

log.retention.hours=1           # 超过1个小时就清理数据
log.segment.bytes=5000          # 数据量超过5000byte就清理数据
log.cleanup.interval.mins=100      # 指定日志每隔多久检查看是否可以被删除,默认1分钟
log.retention.check.interval.ms=300   # 文件大小检查的周期时间,是否触发 log.cleanup.policy中设置的策略

 参考:

Kafka常用命令(zookeeper与bootstrap-server)_沐已成风的博客-CSDN博客

Kafka broker-list,bootstrap-server以及zookeeper的区别 - 夏天换上冬装 - 博客园

Kafka Shell基本命令(包括topic的增删改查) - XIAO的博客 - 博客园

修改kafka topic的offset几种方法_奔向新世界-CSDN博客_kafka修改偏移量offset

kafka监控命令kafka-run-class.sh查看消费了多少条数据_小强签名设计 的博客-CSDN博客_kafka-run-class.sh

基于Python的Spark Streaming+Kafka编程实践_不积跬步,无以至千里;不积小流,无以成江海!-CSDN博客_python spark streaming

Kafka 3.0部署相对于之前的版本并没有太大变化,主要的步骤如下: 1. 下载和安装 Kafka 3.0 你可以从官网下载 Kafka 3.0 的压缩包,然后解压到你想要安装的目录下。 2. 配置 Kafka 3.0 在解压后的 Kafka 目录中,进入 config 目录,找到 server.properties 文件。根据你的需求修改一些配置项,例如 broker.id、log.dirs、listeners 等。 3. 启动 ZooKeeper Kafka 依赖于 ZooKeeper,所以需要先启动 ZooKeeper。你可以从官网下载 ZooKeeper 并解压,然后进入 bin 目录,执行以下命令启动 ZooKeeper: ``` ./zkServer.sh start ``` 4. 启动 Kafka 3.0Kafka 目录下执行以下命令启动 Kafka: ``` ./bin/kafka-server-start.sh config/server.properties ``` 5. 创建 Topic 使用 Kafka命令行工具 kafka-topics.sh 可以创建和管理 Topic。例如,创建一个名为 test 的 Topic: ``` ./bin/kafka-topics.sh --create --bootstrap-server localhost:9092 --replication-factor 1 --partitions 1 --topic test ``` 6. 发送和消费消息 使用 Kafka命令行工具 kafka-console-producer.sh 可以发送消息,kafka-console-consumer.sh 可以消费消息。例如,发送一条消息到 test Topic: ``` ./bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test > hello kafka ``` 然后使用以下命令消费消息: ``` ./bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning ``` 以上是 Kafka 3.0 的基本部署和使用方法,具体操作可以根据实际情况进行调整。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

会发paper的学渣

您的鼓励和将是我前进的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值