docker for windows kafka搭建及使用

Dockers Kafka搭建

首先安装好docker for windows

 

启动cmd窗口,拉取Zookeeper和kafka镜像,选择下载度最高的镜像

docker search zookeeper docker search kafka

我们选择第一个镜像

63cad26553b0464dbdee9422433d21e4.png

 

 

接下来开始拉取zookeeper和kafka镜像,这里我们拉取wurstmeister/kafka

docker pull zookeeper docker pull wurstmeister/kafka

打开docker桌面,可以看见我们的zookeeper已经拉取下来了

7d194ade964246038af13e401743d5d2.png

 

 

现在我们的kafka也拉取下来啦

eb51e137963e458187a0fca8cdfc4c59.png

 

 

用管理员启动cmd

启动zookeeper,这里我们给zookeeper命名zk

docker run -dit --name zk -p 2181:2181 zookeeper

zookeeper已经启动啦

2e36c1003269457096c1f6d86a73e399.png

重启zookeeper

docker restart zk

查看ZK日志

docker logs -f zk

接下来启动三个kafka,组成集群:本机ip修改为自己电脑的ip地址

docker run -d --name kafka01 -p 9092:9092 -e KAFKA_BROKER_ID=0 -e KAFKA_ZOOKEEPER_CONNECT=本机ip:2181 -e ALLOW_PLAINTEXT_LISTENER=yes -e KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://本机ip:9092 -e KAFKA_LISTENERS=PLAINTEXT://0.0.0.0:9092 -t wurstmeister/kafka

docker run -d --name kafka02 -p 9093:9093 -e KAFKA_BROKER_ID=1 -e KAFKA_ZOOKEEPER_CONNECT=本机ip:2181 -e ALLOW_PLAINTEXT_LISTENER=yes -e KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://本机ip:9093 -e KAFKA_LISTENERS=PLAINTEXT://0.0.0.0:9093 -t wurstmeister/kafka

docker run -d --name kafka03 -p 9094:9094 -e KAFKA_BROKER_ID=2 -e KAFKA_ZOOKEEPER_CONNECT=本机ip:2181 -e ALLOW_PLAINTEXT_LISTENER=yes -e KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://本机ip:9094 -e KAFKA_LISTENERS=PLAINTEXT://0.0.0.0:9094 -t wurstmeister/kafka

e9eea48fa25b471a94d35e525140817d.png

可以看见kafka已经启动了

9828fd36044543438c9728a2031b9216.png

.测试配置有无正常安装以及生产消费的基本使用。

测试建立3的副本和5的partition,查看是否配置成功。

KafKa01生产消息,KafKa02和KafKa03消费消息:

docker exec -ti kafka01 kafka-topics.sh --create --zookeeper 本机ip:2181 --replication-factor 3 --partitions 5 --topic TestTopic

成功

5aac338675d149759fcd06adc725c723.png

 查看已创建好的Topic信息:

docker exec -ti kafka01 kafka-topics.sh --describe --bootstrap-server 本机ip:9092 --topic TestTopic

docker exec -ti kafka02 kafka-topics.sh --describe --bootstrap-server 本机ip:9093 --topic TestTopic

docker exec -ti kafka03 kafka-topics.sh --describe --bootstrap-server 本机ip:9094 --topic TestTopic

bf0113fd868341c3b8511d4381306b42.png

消费和生产测试,kafka01输出后在其他两个节点能看到消息:(打开三个cmd终端分别执行)

生产者:
docker exec -ti kafka01 kafka-console-producer.sh --broker-list 本机ip:9092 --topic TestTopic

消费者:
docker exec -ti kafka02 kafka-console-consumer.sh --bootstrap-server 本机ip:9093 --topic TestTopic --from-beginning
 
docker exec -ti kafka03 kafka-console-consumer.sh --bootstrap-server 本机ip:9094 --topic TestTopic --from-beginning

如下:消费者可以收到生产者的消息

0d47d2f1603b4809b356c84660f4d985.png

 

f65c0ec93b6142669ac094d611adb1ee.png

fbafd52d7365456cbc1a7be23199efc3.png

 

kafka使用:javaAPI,代码仅供测试参考,不提供数据。

maven依赖:

 <dependencies>
        <!-- https://mvnrepository.com/artifact/org.apache.kafka/kafka-clients -->
        <dependency>
            <groupId>org.apache.kafka</groupId>
            <artifactId>kafka-clients</artifactId>
            <version>2.8.1</version>
        </dependency>

        <!-- https://mvnrepository.com/artifact/log4j/log4j -->
        <dependency>
            <groupId>log4j</groupId>
            <artifactId>log4j</artifactId>
            <version>1.2.17</version>
        </dependency>

        <dependency>
            <groupId>com.opencsv</groupId>
            <artifactId>opencsv</artifactId>
            <version>5.5.1</version>
        </dependency>

    </dependencies>

生产者程序:

import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.Producer;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.common.serialization.StringSerializer;

import java.io.BufferedReader;
import java.io.FileInputStream;
import java.io.IOException;
import java.io.InputStreamReader;
import java.util.Properties;

public class ProducerDemo {
    private static final String TOPIC = "LGJY";

    public static void main(String[] args) throws InterruptedException {

        String a_csvFilePath = "股票a.csv";
        String b_csvFilePath = "股票b.csv";
        String c_csvFilePath = "股票c.csv";
        // 要构造一个消息生产者对象,关于kafka集群等相关配置,可以从Properties文件中加载也可以从一个Properties对象中加载
        // KafkaProducer按照固定的key取出对应的value
        Properties properties = new Properties();
        // 指定集群节点
        properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "192.168.89.19:9092,192.168.89.19:9093,192.168.89.19:9094");
        // 发送消息,网络传输,需要对key和value指定对应的序列化类
        properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
        properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
        properties.put(ProducerConfig.BATCH_SIZE_CONFIG, 16384);
        properties.put(ProducerConfig.ACKS_CONFIG, "1");

        long startTime = System.currentTimeMillis();

        try (BufferedReader br0 = new BufferedReader(new InputStreamReader(new FileInputStream(a_csvFilePath), "GBK"));
             BufferedReader br1 = new BufferedReader(new InputStreamReader(new FileInputStream(b_csvFilePath), "GBK"));
             BufferedReader br2 = new BufferedReader(new InputStreamReader(new FileInputStream(c_csvFilePath), "GBK"))) {
            // 创建 Kafka 生产者
            Producer<String, String> producer = new KafkaProducer<>(properties);

            String line0;
            String line1;
            String line2;

            while ((line0 = br0.readLine()) != null && (line1 = br1.readLine()) != null && (line2 = br2.readLine()) != null) {
                // 将每行数据发送到 Kafka Topic
                // 根据 CSV 格式进行数据切割和处理
                String[] data0 = line0.split(",");
                String[] data1 = line1.split(",");
                String[] data2 = line2.split(",");

                String transactionData[] = new String[3];
                transactionData[0] = data0[2] + "," + data0[4];
                transactionData[1] = data1[2] + "," + data1[4];
                transactionData[2] = data2[2] + "," + data2[4];

                ProducerRecord<String, String> record0 = new ProducerRecord<String, String>(TOPIC, 0, null, transactionData[0]);
                producer.send(record0);
                System.out.println("消息发送成功,a股票交易:" + data0[4]);

                ProducerRecord<String, String> record1 = new ProducerRecord<String, String>(TOPIC, 1, null,transactionData[1]);
                producer.send(record1);
                System.out.println("消息发送成功,b股票交易:" + data1[4]);

                ProducerRecord<String, String> record2 = new ProducerRecord<String, String>(TOPIC, 2, null,transactionData[2]);
                producer.send(record2);
                System.out.println("消息发送成功,c股票交易:" + data2[4]);
            }

            producer.close();

            long endTime = System.currentTimeMillis();
            long totalTime = endTime - startTime;
            System.out.println("生产者发送总时间:" + totalTime + "毫秒");
        } catch (IOException e) {
            e.printStackTrace();
        }
    }
}

消费者程序:

import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.common.serialization.StringDeserializer;

import java.util.Collections;
import java.util.Objects;
import java.util.Properties;

public class ConsumerDemo {
    private static final String TOPIC = "LGJY";


    public static void main(String[] args) {
        // 属性对象
        Properties properties = new Properties();
        // 指定集群节点
        properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "192.168.89.19:9092,192.168.89.19:9093,192.168.89.19:9094");
        //反序列化类
        properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
        properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);

        // 取消自动提交 防止消息丢失
        properties.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,"false");

        //指定分组的名称
        properties.put(ConsumerConfig.GROUP_ID_CONFIG, "LGJY-GROUP1");


        //消息消费者对象
        KafkaConsumer<String, String> kafkaConsumer = new KafkaConsumer<String, String>(properties);

        //订阅消息
        kafkaConsumer.subscribe(Collections.singletonList(TOPIC));

        int a = 0;
        int b = 0;
        int c = 0;

        while (true) {
            // 获取消息的方法是一个阻断式方法
            ConsumerRecords<String, String> records = kafkaConsumer.poll(500);
            for (ConsumerRecord<String, String> record : records) {
                String re[] = record.value().split(",");

                if (Objects.equals(re[0], "股票a")){
                    a = a + Integer.parseInt(re[1]);
                    System.out.println("股票a实时交易总量:" + a);
                }

                if (Objects.equals(re[0], "股票b")){
                    b = b + Integer.parseInt(re[1]);
                    System.out.println("股票b实时交易总量:" + b);
                }

                if (Objects.equals(re[0], "股票c")){
                    c = c + Integer.parseInt(re[1]);
                    System.out.println("股票c实时交易总量:" + c);
                }
//                System.out.println("股票交易量:" + record.value());
                // 手动提交
                kafkaConsumer.commitSync();
            }

        }
    }
}

 

 

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
Docker搭建Kafka可以按照以下步骤进行: 1. 安装DockerDocker Compose:首先确保你的系统已经安装了DockerDocker Compose。可以在Docker官方网站上找到安装指南。 2. 创建一个Docker Compose文件:创建一个名为`docker-compose.yml`的文件,并添加以下内容: ```yaml version: '2' services: zookeeper: image: confluentinc/cp-zookeeper:latest ports: - "2181:2181" environment: ZOOKEEPER_CLIENT_PORT: 2181 networks: - kafka-net kafka: image: confluentinc/cp-kafka:latest ports: - "9092:9092" environment: KAFKA_BROKER_ID: 1 KAFKA_ZOOKEEPER_CONNECT: zookeeper:2181 KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://kafka:9092 KAFKA_OFFSETS_TOPIC_REPLICATION_FACTOR: 1 depends_on: - zookeeper networks: - kafka-net networks: kafka-net: ``` 这个Compose文件定义了一个包含Zookeeper和Kafka服务的Docker网络。 3. 启动Kafka集群:在终端里,进入包含`docker-compose.yml`文件的目录,并运行以下命令启动Kafka集群: ``` docker-compose up -d ``` 这将会从Docker Hub下载Kafka和Zookeeper的镜像,并启动两个容器。 4. 测试Kafka使用Kafka命令行工具进行测试。首先,进入到一个新的终端窗口,并运行以下命令进入Kafka容器: ``` docker exec -it <kafka_container_id> /bin/bash ``` 注意将`<kafka_container_id>`替换为实际的Kafka容器ID。然后,运行以下命令创建一个名为`test`的主题: ``` kafka-topics --create --topic test --bootstrap-server localhost:9092 --partitions 1 --replication-factor 1 ``` 接下来,可以使用生产者和消费者来发送和接收消息。在新的终端窗口中,进入到Kafka容器,并运行以下命令启动一个生产者: ``` kafka-console-producer --topic test --bootstrap-server localhost:9092 ``` 在另一个终端窗口中,进入到Kafka容器,并运行以下命令启动一个消费者: ``` kafka-console-consumer --topic test --bootstrap-server localhost:9092 --from-beginning ``` 现在,你可以在生产者终端窗口中输入消息,并在消费者终端窗口中看到消息被消费。 这样,你就成功在Docker搭建Kafka集群。可以根据你的需求进行配置和扩展。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

慕仙少白

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值