docker安装kafka教程(保姆篇)

文章目录

一、kafka是什么?

二、使用步骤

1.docker-compose安装

2.docker命令行安装

总结


一、kafka是什么?

Apache Kafka 是一个分布式流处理平台,主要用于构建实时数据处理管道和应用程序。它支持高吞吐量的消息传递,并提供持久化存储、容错性和可扩展性。Kafka 常用于日志聚合、事件流处理和实时数据分析。

二、使用步骤

1.docker-compose安装

代码如下(示例):

version: '2.27.1'  # 使用 Docker Compose 文件版本 2.27.1

services:
  zookeeper:
    image: wurstmeister/zookeeper #镜像名称
    container_name: zookeeper     #容器名称
    ports:
      - "2181:2181"               #端口映射 外网端口映射容器端口
    restart: always
    #容器重启策略 
        #no:默认策略,容器不会自动重启。
        #on-failure:只在容器非正常退出时(退出状态非 0)重启。
        #always:无论退出状态如何,总是重启容器。
        #unless-stopped:除非容器被手动停止,否则总是重启。

  kafka:
    image: wurstmeister/kafka
    container_name: kafka
    ports:
      - "9092:9092"
    environment:                  #环境变量
      KAFKA_ZOOKEEPER_CONNECT: zookeeper:2181
      KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://{外网ip}:9092
      KAFKA_LISTENERS: PLAINTEXT://0.0.0.0:9092
    depends_on:                   #指定了服务依赖关系,确保 kafka 服务在 zookeeper 服务启动后再启动。
      - zookeeper
    restart: always

  kafka-map:
    image: dushixiang/kafka-map:latest
    container_name: kafka-map
    ports:
      - "9000:8080"
    volumes:                      #挂载数据卷
      - /opt/kafka-map/data:/usr/local/kafka-map/data
    environment:
      DEFAULT_USERNAME: admin
      DEFAULT_PASSWORD: admin
    restart: always

要使用这个 docker-compose.yml 文件,你需要在文件所在的目录中运行以下命令:

 docker-compose up -d

 这将启动所有定义在 docker-compose.yml 文件中的服务。如果你想停止这些服务,可以使用:

docker-compose down

 这将停止并删除所有服务,但不会删除数据卷。如果你想要删除数据卷,可以添加 --volumes 选项:

docker-compose down --volumes

 请确保在运行 docker-compose up 之前,你已经安装了 Docker Compose 并且你的 Docker 环境已经配置正确。

2.docker命令行安装

代码如下(示例):

docker run -d --name zookeeper -p 2181:2181 wurstmeister/zookeeper

docker run -d --name kafka -p 9092:9092 --link zookeeper:zookeeper \
-e KAFKA_ZOOKEEPER_CONNECT=zookeeper:2181 \
-e KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://{外网ip}:9092 \
-e KAFKA_LISTENERS=PLAINTEXT://0.0.0.0:9092 wurstmeister/kafka

docker run -d -p 9000:8080 \
-v /opt/kafka-map/data:/usr/local/kafka-map/data \
-e DEFAULT_USERNAME=admin \
-e DEFAULT_PASSWORD=admin \
--name kafka-map \
--restart always dushixiang/kafka-map:latest

KAFKA_LISTENERS=PLAINTEXT://0.0.0.0:9092 #则会绑定所有的网卡, 也就是说不管从哪个网卡进入的请求都会被接受处理。

KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://{ip}:9092 #客户端想要与它通信, 需要知道具体的 IP:PORT


总结

以上就是今天要讲的内容,本文介绍了docker安装kafka的详细教程,如有问题可留言私信,看见了可回复。

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
下面是使用Docker安装Kafka的简要教程: 1. 首先,确保你已经安装Docker。你可以在命令行中输入`docker version`来检查Docker是否已成功安装。 2. 下载Kafka镜像。在命令行中运行以下命令来下载最新版本的Kafka镜像: ``` docker pull wurstmeister/kafka ``` 3. 创建一个Kafka容器。运行以下命令来创建一个新的Kafka容器: ``` docker run -d --name kafka -p 9092:9092 -e KAFKA_ADVERTISED_HOST_NAME={宿主机IP地址} -e KAFKA_ZOOKEEPER_CONNECT={宿主机IP地址}:2181 -e KAFKA_CREATE_TOPICS="topic1:1:1" wurstmeister/kafka ``` 在上述命令中,`{宿主机IP地址}`应该替换为你的宿主机的IP地址。这个命令将启动一个带有Kafka和ZooKeeper的容器,并将Kafka的监听端口映射到宿主机的9092端口。 4. 等待一段时间,直到Kafka容器完全启动。你可以通过运行以下命令来检查容器状态: ``` docker ps ``` 如果容器状态显示为"Up",则表示Kafka容器已成功启动。 5. 现在你可以使用任何Kafka客户端工具连接到Kafka容器。 这里是一个使用Kafka命令行工具进行连接和测试的示例: a. 首先,进入容器内部的命令行环境: ``` docker exec -it kafka /bin/bash ``` b. 然后,创建一个名为"topic1"的主题: ``` kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic topic1 ``` c. 发布一些消息到"topic1": ``` kafka-console-producer.sh --broker-list localhost:9092 --topic topic1 ``` d. 消费"topic1"中的消息: ``` kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic topic1 --from-beginning ``` 注意:如果你没有安装Kafka命令行工具,可以在Docker容器中使用`kafka-console-producer.sh`和`kafka-console-consumer.sh`命令。如果你已经在本地安装Kafka命令行工具,你可以直接在本地终端中执行上述命令。 这样,你就成功地使用Docker安装Kafka。你可以根据自己的需要进行配置和使用Kafka
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值