docker搭建zookeeper(3.5.5)+kafka(2.3.0)+kafka map

顺序:先搭建zookeeper,然后kafka,然后kafka map。记得先搭建网络,可以让其在一个网段下
我是windows安装的dockerhub,所以直接在cmd中输入下面的内容:

docker network create kafka-network --driver bridge

// 根据kafka-network的网络,给下面的kafka指定ip,例如网段是172.18.0.x,可以指定kafka的IP为172.18.0.3

docker run -d --name zookeeper ^
-p 2181:2181 ^
--network kafka-network ^
-v D:\AllDownload\DevTools\Docker\DockerContainers\zookeeper\data:/data ^
-v D:\AllDownload\DevTools\Docker\DockerContainers\zookeeper\logs:/logs ^
-e ZOO_DATA_DIR=/data ^
-e ZOO_LOG_DIR=/logs ^
zookeeper:3.5.5


docker run -d --name kafka ^
-p 9092:9092 ^
--network kafka-network ^
--link zookeeper:zookeeper ^
-v D:\AllDownload\DevTools\Docker\DockerContainers\kafka\logs:/kafka/logs ^
-e KAFKA_ZOOKEEPER_CONNECT=zookeeper:2181 ^
-e KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://172.18.0.3:9092 ^
-e KAFKA_BROKER_ID=1 ^
-e KAFKA_LOG_DIRS=/kafka/logs ^
-e ALLOW_PLAINTEXT_LISTENER=yes ^
bitnami/kafka:2.3.0-debian-9-r108



docker run -d --name kafka-map ^
    -p 9001:8080 ^
    --network kafka-network ^
    -v D:\AllDownload\DevTools\Docker\DockerContainers\kafka-map\data:/usr/local/kafka-map/data ^
    -e DEFAULT_USERNAME=admin ^
    -e DEFAULT_PASSWORD=admin ^
    dushixiang/kafka-map:v1.3.3

1.新建kafka主题:

./kafka-topics.sh --create --topic test-kafka --bootstrap-server localhost:9092 --partitions 3 --replication-factor 1

查看新建的主题:

./kafka-topics.sh --describe --topic test-kafka --bootstrap-server localhost:9092

2.生产者

./kafka-console-producer.sh --topic test-kafka --broker-list localhost:9092

3.消费者

./kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test-kafka --group my-group --from-beginning

4.进入kafka map后台,添加集群

这个ip就是之前设置KAFKA_ADVERTISED_LISTENERS后面的ip,是在network-kafka一个网段下创建的。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是使用Docker部署ZookeeperKafka的步骤: 1. 安装DockerDocker Compose 2. 创建Docker Compose文件 在本地目录中创建一个名为docker-compose.yml的文件,并添加以下内容: ``` version: "3" services: zookeeper: image: zookeeper ports: - "2181:2181" environment: ZOO_MY_ID: 1 volumes: - ./data/zookeeper/data:/data - ./data/zookeeper/datalog:/datalog kafka: image: wurstmeister/kafka ports: - "9092:9092" environment: KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://localhost:9092 KAFKA_ZOOKEEPER_CONNECT: zookeeper:2181 KAFKA_CREATE_TOPICS: "test:1:1" volumes: - ./data/kafka:/kafka depends_on: - zookeeper ``` 此文件定义了两个服务:ZookeeperKafkaZookeeper服务使用官方的Zookeeper镜像,Kafka服务使用wurstmeister的Kafka镜像。 3. 启动服务 在终端中,进入含有docker-compose.yml文件的目录中,然后运行以下命令: ``` docker-compose up -d ``` 此命令将启动ZookeeperKafka服务,并将它们作为Docker容器在后台运行。 4. 验证服务 在浏览器中访问http://localhost:2181/,应该会看到Zookeeper的管理界面。您还可以使用以下命令在Kafka上创建一个测试主题: ``` docker-compose exec kafka \ kafka-topics.sh --create \ --zookeeper zookeeper:2181 \ --replication-factor 1 \ --partitions 1 \ --topic test ``` 使用以下命令在Kafka上发布一条消息: ``` docker-compose exec kafka \ bash -c "echo 'hello, world' | kafka-console-producer.sh --broker-list localhost:9092 --topic test && echo 'Produced 1 message.'" ``` 最后,使用以下命令在Kafka上消费消息: ``` docker-compose exec kafka \ kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning ``` 如果您能够在终端中看到“hello, world”消息,则表明Kafka已经成功运行。 5. 停止服务 在终端中,进入docker-compose.yml文件所在的目录中,并运行以下命令: ``` docker-compose down ``` 此命令将停止并删除ZookeeperKafka容器。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值