【Linux】ubuntu下kafka集群环境搭建

1.下载kafka正式版,本文使用kafka_2.10-0.8.2.2(在此特别说明下,kafka_2.9.2-0.8.1.1.tgz由于版本相对较低的问题,好多.sh文件时缺少的,比如kafka-topics.sh,所以建议大家在安装的时候不要使用太老的版本,问题较多,并且启动kafka-server-start的时候还报错,始终无法启动成功~)

官网下载链接如下:http://kafka.apache.org/downloads.html

2.解压tar包

命令如下:tar -zxvf kafka_2.10-0.8.2.2.tar.gz

3.修改server.properties相关配置

进入kafka根目录下的config/server.properties,主要修改的3个参数如下:

broker.id=0 //broker的标识(正数),集群内各个broker.id不能重复。

port=9092 //端口号,单节点内各个port不能重复(为了方便看最好不同节点端口也不要重复)。

log.dir =/tmp //存储log的地方(数据文件)。可根据自己的日志目录进行修改

以上配置时在单机上的配置,多台机器的配置要根据ip进行相关配置;

4.修改config下面的log4j.properties、zookeeper.properties的日志目录;

    log4j.properties下面的kafka.logs.dir=logs,可根据自己需要修改成自己的目录;

    zookeeper.properties下面的dataDir=/tmp/zookeeper,可根据需要修改成自己的目录

5.验证是否安装成功

(1)  start server

            启动一个单节点的zookeeper,命令如下:>bin/zookeeper-server-start.sh config/zookeeper.properties

    准备启动一个3个broker节点的kafka集群,因此做如下配置:

   $ cp config/server.properties config/server-1.properties 
   $ cp config/server.properties config/server-2.properties

   并做如下修改:

   config/server-1.properties:
        broker.id=1
        port=9093
        log.dir=/tmp/kafka-logs-1

   config/server-2.properties:
        broker.id=2
        port=9094
        log.dir=/tmp/kafka-logs-2

   说明:
   broker.id: broker节点的唯一标识
   port: broker节点使用端口号
   log.dir: 消息目录位置

   启动3个broker节点
   $ JMX_PORT=9997 bin/kafka-server-start.sh config/server-1.properties &
   $ JMX_PORT=9998 bin/kafka-server-start.sh config/server-2.properties &
   $ JMX_PORT=9999 bin/kafka-server-start.sh config/server.properties &

   标红的内容可根据自己的需要进行配置;

  启动单个broker节点的kafka集群,命令如下:>bin/kafka-server-start.sh config/server.propertie

      第一行时启动kafka自带的zookeeper

(2)create a topic

$bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test

$bin/kafka-topics.sh --list --zookeeper localhost:2181

topic: 3test    partition: 0    leader: 2       replicas: 2,1,0 isr: 2,1,0
 topic: test     partition: 0    leader: 0       replicas: 0     isr: 0
 topic: test_topic       partition: 0    leader: 1       replicas: 0,1,2 isr: 1,2,0
 说明:
 partiton: partion id,由于此处只有一个partition,因此partition id 为0
 leader:当前负责读写的lead broker id
 relicas:当前partition的所有replication broker  list
 isr:relicas的子集,只包含出于活动状态的broker
 

(3)send message

     $bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test

(4)start a consumer

$bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning

kafka-console-producer.sh和kafka-console-cousumer.sh只是系统提供的命令行工具。这里启动是为了测试是否能正常生产消费,验证流程正确性,在实际开发中还是要自行开发自己的生产者与消费者。

(5)start a produce


      $ bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test

   这样就可以的命令行输入信息,可以看到consumer可以获得同样的信息~

  6.干掉follow broker

      杀掉一个非leader broker命令如下:server-1.properties里面的broker =1

      $ pkill -9 -f server-1.properties

    查看topic:
   $ bin/kafka-list-topic.sh --zookeeper localhost:2181
   topic: 3test    partition: 0    leader: 2       replicas: 2,1,0 isr: 2,0
   topic: test     partition: 0    leader: 2       replicas: 0,1,2 isr: 2,0
   此时,存活的broker只有2,0
   测试:produce发送消息,consumer能正常接收到

 7.继续干掉leader broker

   干掉leader broker后,连续查看topic状态
   $ pkill -9 -f server-2.properties                 
   $ bin/kafka-list-topic.sh --zookeeper localhost:2181
   topic: test    partition: 0    leader: 2       replicas: 2,1,0 isr: 2,0
 
   $ bin/kafka-list-topic.sh --zookeeper localhost:2181
   topic: test    partition: 0    leader: 2       replicas: 2,1,0 isr: 2,0
 
   $ bin/kafka-list-topic.sh --zookeeper localhost:2181
   topic: test    partition: 0    leader: 0       replicas: 2,1,0 isr: 0
 
   $ bin/kafka-list-topic.sh --zookeeper localhost:2181
   topic: test    partition: 0    leader: 0       replicas: 2,1,0 isr: 0
 
   杀掉leader broker过了一会,broker 0成为新的leader broker
   测试:produce发送消息,consumer能正常接收到
 

8.kafka常用命令

创建topic

/kafka-topics.sh --create --zookeeper 192.168.153.128:2181 --replication-factor 1--partitions 1 --topic test123

查看topic信息

./kafka-topics.sh --describe --topic test123 --zookeeper 192.168.153.128:2181

修改topic分区

./kafka-topics.sh --alter --topic test123 --partitions 2 --zookeeper 192.168.153.128:2181

删除topic

./kafka-run-class.shkafka.admin.DeleteTopicCommand --topic test1 --zookeeper192.168.35.122:2181,192.168.35.123:2181

只是删除了zookeeper中元数据,数据文件还需手动删除。

   

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: 要搭建Kafka集群,需要以下步骤: 1. 安装Java环境Kafka是基于Java开发的,因此需要先安装Java环境。 2. 下载Kafka:从官网下载Kafka的二进制包。 3. 解压Kafka:将下载的Kafka二进制包解压到指定的目录下。 4. 配置Kafka:修改Kafka的配置文件,包括broker.id、zookeeper.connect、listeners等参数。 5. 启动Zookeeper:Kafka依赖于Zookeeper,因此需要先启动Zookeeper。 6. 启动Kafka:启动Kafka集群,可以使用命令行或者脚本启动。 7. 测试Kafka:使用Kafka提供的命令行工具进行测试,包括创建主题、发送消息、消费消息等操作。 8. 部署Kafka集群:将Kafka集群部署到多台服务器上,可以使用Kafka提供的复制机制实现数据的备份和容错。 以上就是搭建Kafka集群的基本步骤。需要注意的是,Kafka的配置和部署需要根据实际情况进行调整和优化,以保证Kafka集群的性能和稳定性。 ### 回答2: Kafka是一款高性能的分布式消息系统,常常用于大规模数据流的处理和分发。Linux作为一个可靠的服务端操作系统,也是Kafka的一个常见的运行环境。本文将介绍在Linux环境搭建Kafka集群的步骤和注意事项。 1. 安装Java Kafka是基于Java开发的,因此需要先安装Java运行环境。使用以下命令安装Java 8: ``` $ sudo apt-get update $ sudo apt-get install openjdk-8-jdk ``` 2. 下载和解压缩Kafka 下载Kafka最新版本,并解压缩到合适的目录下。比如: ``` $ wget https://downloads.apache.org/kafka/2.6.0/kafka_2.13-2.6.0.tgz $ tar -zxf kafka_2.13-2.6.0.tgz $ cd kafka_2.13-2.6.0 ``` 3. 修改配置文件 Kafka的配置文件位于“config”目录下,常见的有“server.properties”和“zookeeper.properties”。我们需要修改这些配置文件以适配我们的环境。下面是一些要注意的设置: - “server.properties”中的“broker.id”必须是唯一的,每个Kafka节点应该有一个唯一的值。 - “server.properties”中需要设置“listeners”为“PLAINTEXT://:9092”或“PLAINTEXT://[[hostname]]:9092”,这样才能通过网络接口访问到Kafka。 - “zookeeper.properties”中需要设置“dataDir”为Zookeeper数据存储的目录。 4. 启动Zookeeper Kafka依赖Zookeeper来管理集群配置,因此需要先启动Zookeeper。使用以下命令启动Zookeeper: ``` $ bin/zookeeper-server-start.sh config/zookeeper.properties ``` 5. 启动Kafka节点 我们可以使用以下命令启动一个Kafka节点,注意使用不同的配置文件: ``` $ bin/kafka-server-start.sh config/server.properties ``` 如果我们需要启动多个节点,可以使用不同的配置文件,并在启动时设置不同的“broker.id”。启动一组Kafka节点后,它们将自动组成一个集群。 6. 测试 使用以下命令创建一个主题和消费者: ``` $ bin/kafka-topics.sh --create --bootstrap-server localhost:9092 --replication-factor 1 --partitions 1 --topic test $ bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning ``` 然后在生产者端发送一些消息: ``` $ bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test >test message 1 >test message 2 ``` 我们应该可以在消费者端看到这些消息。 7. 总结 在Linux环境搭建Kafka集群需要一定的基础知识和技能,但只要按照上述步骤操作,应该能够很容易地搭建一个稳定的、高性能的Kafka环境。当然,在运维过程中也需要注意Kafka的一些常见问题,如副本同步延迟、消息丢失等。不过这些问题已经超出了本文的范围。 ### 回答3: Kafka是一个高性能、可扩展、分布式的消息队列,由于它的高可靠性和高吞吐量,越来越多的企业选择使用Kafka作为消息中间件。为满足大规模数据处理和高并发请求的需求,必须通过搭建Kafka集群来保证其性能和可靠性。 一、环境准备 1.安装Java环境Kafka运行需要Java环境,安装JDK。 2.下载和安装KafkaKafka官方网站下载.tar.gz格式的压缩包,解压缩至指定路径即可。 3.配置Kafka:修改config文件夹下server.properties配置文件,设置Kafka的基本参数。 4.准备Zookeeper环境Kafka集群依赖于Zookeeper环境,需要先安装Zookeeper。 5.配置Zookeeper:修改Zookeeper的配置文件config/zookeeper.properties,设置Zookeeper的基本参数。 二、搭建Kafka集群 1.编辑Kafka配置文件:修改Kafka的配置文件config/server.properties,设置Kafka节点通信机制,以及数据保存路径等参数。 2.启动Zookeeper:启动Zookeeper,确保Zookeeper正常工作。 3.启动Kafka服务器:执行bin/kafka-server-start.sh config/server.properties命令启动Kafka服务器,启动成功后就可以在本机访问Kafka。 4.配置Kafka集群: 在每个Kafka节点上修改配置文件,设置broker.id、zookeeper.connect、port等参数,然后依次启动所有节点。 5.测试Kafka集群: 在集群中的任何一个节点上创建一个主题,向主题中发送消息并消费消息,以确保Kafka集群的正常工作。 三、集群管理 管理Kafka集群需要使用kafka-manager或kafka-web-console等工具,可以通过Web界面来管理Kafka集群的主题、分区、消费者以及监控Kafka的各项指标,方便用户进行集群管理。 总之,通过上述步骤,可以快速搭建一个高可靠、高吞吐量的Kafka集群,为企业提供无缝的数据传输、消息中间件服务。同时,对于管理者而言,还需要做好监控和维护工作,保证 kafka 集群持续稳定的工作,最终满足各种复杂业务的数据流转和处理需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

是原来的你吗

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值