1.kafka单节点安装及命令行操作

概述

  kafka单节点安装及命令行操作,官网链接 kafka官网速递

实践

配置

zookeeper

  kafka 3.x之后内置了zookeeper

# 创建目录
[root@hadoop02 kafka_2.12-3.7.1]# mkdir zookeeper
[root@hadoop02 kafka_2.12-3.7.1]# cd zookeeper/
[root@hadoop02 zookeeper]# pwd
/root/kafka_2.12-3.7.1/zookeeper
# server.properties
# broker的全局唯一编号,不能重复
broker.id=0
# 处理网络请求线程的数量
num.network.threads=3
# 处理磁盘IO线程的数量
num.io.threads=8
# 发送套接字的缓冲区域大小
socket.send.buffer.bytes=102400
# 接收套接字的缓冲区大小
socket.receive.buffer.bytes=102400
# 接收套接字的最大字节数
socket.request.max.bytes=104857600
# 日志目录(修改) 
log.dirs=/tmp/kafka-logs
log.dirs=/root/kafka_2.12-3.7.1
# 每个 topic 默认分区数为 1
num.partitions=1
# 文件(数据)保留默认七天
log.retention.hours=168

安装

tar -xzf kafka_2.12-3.7.1.tgz
cd kafka_2.13-3.7.1
# kafka3.x之后自带zookeeper
vi zookeeper.properties
dataDir=/root/kafka_2.12-3.7.1/zookeeper

bin/zookeeper-server-start.sh -daemon config/zookeeper.properties  
bin/kafka-server-start.sh -daemon config/server.properties
bin/kafka-server-start.sh config/kraft/server.properties[root@hadoop02 kafka_2.12-3.7.1]# jps
12260 QuorumPeerMain
14862 Kafka
16382 Jps
[root@hadoop02 kafka_2.12-3.7.1]# 

命令行使用

kafka-topics.sh

在这里插入图片描述

kafka-topic 的使用:创建、删除、查看、修改
# REQUIRED kafka的Broker的地址: hostname:port
--bootstrap-server <String: server to    REQUIRED: The Kafka server to connect  
  connect to>                              to.           
--create                                 Create a new topic.                    
--delete                                 Delete a topic   
--describe                               List details for the given topics. 
--list                                   List all available topics.  
--alter                                  Alter the number of partitions and     
                                           replica assignment. Update the       
                                           configuration of an existing topic   
                                           via --alter is no longer supported   
                                           here (the kafka-configs CLI supports 
                                           altering topic configs with a --     
                                           bootstrap-server option). 
--partitions <Integer: # of partitions>  The number of partitions for the topic 
                                           being created or altered (WARNING:   
                                           If partitions are increased for a    
                                           topic that has a key, the partition  
                                           logic or ordering of the messages    
                                           will be affected). If not supplied   
                                           for create, defaults to the cluster  
                                           default.    
--replication-factor <Integer:           The replication factor for each   
--config <String: name=value>             key value                                                                                                      

实践

# ./kafka-topics.sh --bootstrap-server localhost:9092 --create --topic test01
[root@hadoop02 bin]# ./kafka-topics.sh --bootstrap-server localhost:9092 --create --topic test01
Created topic test01.

# ./kafka-topics.sh --bootstrap-server localhost:9092 --list
[root@hadoop02 bin]# ./kafka-topics.sh --bootstrap-server localhost:9092 --list
test01
[root@hadoop02 bin]# 
# ./kafka-topics.sh --bootstrap-server localhost:9092 --describe    --topic test01
[root@hadoop02 bin]# ./kafka-topics.sh --bootstrap-server localhost:9092 --describe    --topic test01
Topic: test01   TopicId: BvwZ-jNbTQ-eKcNya0jEdQ PartitionCount: 1       ReplicationFactor: 1    Configs: 
        Topic: test01   Partition: 0    Leader: 0       Replicas: 0     Isr: 0
[root@hadoop02 bin]# 

命令行生产数据

在这里插入图片描述

# ./kafka-console-producer.sh --bootstrap-server localhost:9092  --topic test01

在这里插入图片描述

命令行消费数据

# ./kafka-console-consumer.sh --bootstrap-server localhost:9092  --topic test01

在这里插入图片描述

  • 3
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Kafka的多节点部署是一种常见的方式,它可以提高Kafka集群的可靠性和性能。下面是一个简的步骤来进Kafka节点部署: 1. 安装Java环境:确保每个Kafka节点上都安装了适当的Java环境。 2. 下载Kafka:从Apache Kafka官方网站下载最新的稳定版本,并解压到每个节点的目录中。 3. 配置Zookeeper:Kafka使用Zookeeper来管理集群的元数据和协调功能。确保在每个节点上都启动并配置Zookeeper。 4. 配置Kafka:进入每个Kafka节点的配置目录,编辑`server.properties`文件来配置集群。以下是一些常见的配置项: - `broker.id`:每个节点在集群中的唯一标识。 - `listeners`:Kafka监听器的地址和端口。 - `advertised.listeners`:广告监听器的地址和端口,它将告诉客户端如何连接到Kafka集群。 - `zookeeper.connect`:Zookeeper的连接地址。 5. 启动Kafka节点:在每个节点上启动Kafka服务。你可以使用`bin/kafka-server-start.sh`脚本启动Kafka服务。 6. 验证集群:使用Kafka提供的命令工具或者客户端库来验证集群是否正常工作。你可以创建主题、发送和消费消息等。 7. 扩展集群:如果你想要扩展Kafka集群,只需重复上述步骤在新的节点上进安装和配置即可。 请注意,以上只是一个简的指南,实际的部署过程可能因为你的特定环境和需求而有所不同。建议参考官方文档或者其他可靠资源来获取更详细的信息。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

流月up

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值