docker 安装kafka_Kafka 实战(二)docker 与 windows 安装 kafka

背景

近期在使用 kafka,不过用的是阿里云的服务。

一时心痒痒,就想本地安装一下,环境是 window7,作为记录,便于以后查阅。

ada755ebec93be9653cc18cfa8a28670.png

基本环境

jdk

apache kafka 基于 java 实现,所以需要安装下 java 基本环境。

λ java -version
java version "1.8.0_102"
Java(TM) SE Runtime Environment (build 1.8.0_102-b14)
Java HotSpot(TM) Client VM (build 25.102-b14, mixed mode, sharing)

本地已经安装,不再赘述。

zookeeper

kafka 基于 zk 实现高可用,我们这里安装一下。

1、 下载安装包

http://zookeeper.apache.org/releases.html#download

我安装的是 apache-zookeeper-3.6.1-bin.tar.gz 版本

2、解压

解压之后,找到配置文件夹

D:\tool\zookeeper\apache-zookeeper-3.6.1-bin\conf

zoo_sample.cfg 复制一份,重命名为 zoo.cfg

3、修改配置

打开 zoo.cfg 文件,修改并且编辑 dataDir 为:

dataDir=D:/tool/zookeeper/apache-zookeeper-3.6.1-bin/data

这里用来存放数据信息。

4、 添加系统变量:

ZOOKEEPER_HOME=D:\tool\zookeeper\apache-zookeeper-3.6.1-bin

编辑path系统变量,添加路径:

%ZOOKEEPER_HOME%\bin;

注意前面是否有 ;,如果没有记得添加。

5、zk 端口修改

在zoo.cfg文件中修改默认的Zookeeper端口(默认端口2181)

clientPort=2181

此处我保持不变

6、运行 zk

启动命令行,运行

zkServer

其实也可以直接到运行的目录下运行:

cd D:\tool\zookeeper\apache-zookeeper-3.6.1-bin\bin
zkServer

启动报错

报错:

此时不应有 \Java\jdk1.8.0_102。

原因:java 的存放路径中包含空格,需要重新配置。

默认安装路径:

C:\Program Files (x86)\Java\jdk1.8.0_102
  • 调整位置

调整到下面的位置:

D:\tool\Java\jdk1.8.0_102
  • 修改环境变量
JAVA_HOME=D:\tool\Java\jdk1.8.0_102
  • 确认查看
echo %java_home%
D:\tool\Java\jdk1.8.0_102
  • 重新启动
2020-08-11 21:54:14,440 [myid:] - INFO  [main:FileTxnSnapLog@124] - zookeeper.snapshot.trust.empty : false
2020-08-11 21:54:14,455 [myid:] - INFO  [main:ZookeeperBanner@42] -
2020-08-11 21:54:14,456 [myid:] - INFO  [main:ZookeeperBanner@42] -   ______                  _
2020-08-11 21:54:14,456 [myid:] - INFO  [main:ZookeeperBanner@42] -  |___  /                 | |
2020-08-11 21:54:14,457 [myid:] - INFO  [main:ZookeeperBanner@42] -     / /    ___     ___   | | __   ___    ___   _ __     ___   _ __
2020-08-11 21:54:14,458 [myid:] - INFO  [main:ZookeeperBanner@42] -    / /    / _ \   / _ \  | |/ /  / _ \  / _ \ | '_ \   / _ \ | '__|
2020-08-11 21:54:14,459 [myid:] - INFO  [main:ZookeeperBanner@42] -   / /__  | (_) | | (_) | |   2020-08-11 21:54:14,460 [myid:] - INFO  [main:ZookeeperBanner@42] -  /_____|  \___/   \___/  |_|\_\  \___|  \___| | .__/   \___| |_|
2020-08-11 21:54:14,460 [myid:] - INFO  [main:ZookeeperBanner@42] -                                               | |
2020-08-11 21:54:14,461 [myid:] - INFO  [main:ZookeeperBanner@42] -                                               |_|
2020-08-11 21:54:14,461 [myid:] - INFO  [main:ZookeeperBanner@42] -
2020-08-11 21:54:14,477 [myid:] - INFO  [main:Environment@98] - Server environment:zookeeper.version=3.6.1--104dcb3e3fb464b30c5186d229e00af9f332524b, built on 04/21/2020 15:01 GMT

保持这个窗口打开,为后面 kafka 使用。

安装 kafka

下载安装包

http://kafka.apache.org/downloads

注意,这里选择二进制版本

2.6.0
Released Aug 3, 2020
Release Notes
Source download: kafka-2.6.0-src.tgz (asc, sha512)
Binary downloads:
Scala 2.12  - kafka_2.12-2.6.0.tgz (asc, sha512)
Scala 2.13  - kafka_2.13-2.6.0.tgz (asc, sha512)
We build for multiple versions of Scala. This only matters if you are using Scala and you want a version built for the same Scala version you use. Otherwise any version should work (2.13 is recommended).

此处我选择 Scala 2.13  - kafka_2.13-2.6.0.tgz (asc, sha512)

解压到指定文件夹。

我这里是:

D:\tool\kafka\kafka_2.13-2.6.0

修改配置

进入 D:\tool\kafka\kafka_2.13-2.6.0\config 目录找到文件server.properties并打开

做下几个编辑:

# 日志路径
log.dirs=D:\tool\kafka\kafka_2.13-2.6.0\logs

# zk 地址(默认可以保持不变)
zookeeper.connect=localhost:2181

Kafka会按照默认,在 9092 端口上运行,并连接zookeeper的默认端口:2181

启动

我们到根目录:

D:\tool\kafka\kafka_2.13-2.6.0

文件如下:

ls
bin/  config/  libs/  LICENSE  NOTICE  site-docs/

我们指定一下启动,并且指定我们刚才的配置:

.\bin\windows\kafka-server-start.bat .\config\server.properties

启动日志:

[2020-08-11 22:02:36,795] INFO Kafka version: 2.6.0 (org.apache.kafka.common.utils.AppInfoParser)
[2020-08-11 22:02:36,796] INFO Kafka commitId: 62abe01bee039651 (org.apache.kafka.common.utils.AppInfoParser)
[2020-08-11 22:02:36,796] INFO Kafka startTimeMs: 1597154556790 (org.apache.kafka.common.utils.AppInfoParser)
[2020-08-11 22:02:36,800] INFO [KafkaServer id=0] started (kafka.server.KafkaServer)

注意:不要关了这个窗口,启用Kafka前请确保ZooKeeper实例已经准备好并开始运行

测试验证

(linux直接在bin目录下.sh,windows需要进入bin\winndows下的.bat)

我这里是 windows,进入:

D:\tool\kafka\kafka_2.13-2.6.0\bin\windows

创建主题

命令:

.\kafka-topics.bat --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test

日志

Created topic test.

表明创建主题完成。

查看主题

输入

.\kafka-topics.bat --list --zookeeper localhost:2181

返回:

test

创建生产者

.\kafka-console-producer.bat --broker-list localhost:9092 --topic test

直接进入一个输入窗口:

>

保持这个窗口打开,我们创建一下消费者。

创建消费者

.\kafka-console-consumer.bat --bootstrap-server localhost:9092 --topic test --from-beginning

测试验证

我们在生产者的命令行中输入一些信息:

> hello kafka

理论上我们是可以看到消费者对应的消息的。

然而很不幸,我并没有看到。

异常

去日志目录看一下,就是我们配置的 kafka 日志:

有一段错误日志如下:

[2020-08-11 22:09:12,776] ERROR [Broker id=0] Error while processing LeaderAndIsr request correlationId 3 received from controller 0 epoch 1 for partition __consumer_offsets-28 (state.change.logger)
java.io.IOException: Map failed
 at sun.nio.ch.FileChannelImpl.map(FileChannelImpl.java:940)
 at kafka.log.AbstractIndex.(AbstractIndex.scala:125)
 at kafka.log.OffsetIndex.(OffsetIndex.scala:54)
 at kafka.log.LazyIndex$.$anonfun$forOffset$1(LazyIndex.scala:106)
 at kafka.log.LazyIndex.$anonfun$get$1(LazyIndex.scala:63)
 at kafka.log.LazyIndex.get(LazyIndex.scala:60)
 at kafka.log.LogSegment.offsetIndex(LogSegment.scala:65)
 at kafka.log.LogSegment.readNextOffset(LogSegment.scala:457)
 at kafka.log.Log.recoverLog(Log.scala:824)
 at kafka.log.Log.$anonfun$loadSegments$3(Log.scala:723)
 at scala.runtime.java8.JFunction0$mcJ$sp.apply(JFunction0$mcJ$sp.scala:17)
 at kafka.log.Log.retryOnOffsetOverflow(Log.scala:2351)
 at kafka.log.Log.loadSegments(Log.scala:723)
 at kafka.log.Log.(Log.scala:287)
 at kafka.log.Log$.apply(Log.scala:2485)
 at kafka.log.LogManager.getOrCreateLog(LogManager.scala:779)
 at kafka.cluster.Partition.createLog(Partition.scala:322)
 at kafka.cluster.Partition.createLogIfNotExists(Partition.scala:297)
 at kafka.cluster.Partition.$anonfun$makeLeader$1(Partition.scala:499)
 at kafka.cluster.Partition.makeLeader(Partition.scala:485)
 at kafka.server.ReplicaManager.$anonfun$makeLeaders$5(ReplicaManager.scala:1441)
 at scala.collection.mutable.HashMap$Node.foreach(HashMap.scala:587)
 at scala.collection.mutable.HashMap.foreach(HashMap.scala:475)
 at kafka.server.ReplicaManager.makeLeaders(ReplicaManager.scala:1439)
 at kafka.server.ReplicaManager.becomeLeaderOrFollower(ReplicaManager.scala:1317)
 at kafka.server.KafkaApis.handleLeaderAndIsrRequest(KafkaApis.scala:227)
 at kafka.server.KafkaApis.handle(KafkaApis.scala:136)
 at kafka.server.KafkaRequestHandler.run(KafkaRequestHandler.scala:70)
 at java.lang.Thread.run(Thread.java:745)
Caused by: java.lang.OutOfMemoryError: Map failed
 at sun.nio.ch.FileChannelImpl.map0(Native Method)
 at sun.nio.ch.FileChannelImpl.map(FileChannelImpl.java:937)
 ... 28 more

主要有 2 种说法,一种是将 jvm 调整为 64 位,一种是修改 kafka 启动配置。

(1)修改配置

我们先修改启动参数试试:

kafka-server-start.bat 这个启动脚本,参数一定也在里面。

这里没有几句话:

IF NOT ERRORLEVEL 1 (
rem 32-bit OS
set KAFKA_HEAP_OPTS=-Xmx512M -Xms512M
) ELSE (
rem 64-bit OS
set KAFKA_HEAP_OPTS=-Xmx1G -Xms1G
)
)

我们直接将 HEAP 都配置为 1G,调整如下:

IF NOT ERRORLEVEL 1 (
rem 32-bit OS
set KAFKA_HEAP_OPTS=-Xmx256M -Xms256M
) ELSE (
rem 64-bit OS
set KAFKA_HEAP_OPTS=-Xmx256M -Xms256M
)

我这里是调整小了可以。然后就启动成功了。

猜测:os 是 64-bit,jvm 是 32 位,所以往小处调整。

  • 再次启动
.\bin\windows\kafka-server-start.bat .\config\server.properties

正常效果

这次我在生产者输入:

>winer winer
>chicken dinner
>

消费端对应的消息如下:

winer winer
chicken dinner

docker 安装 kafka

docker 的安装过程就会简单很多。

镜像选择

$ docker search kafka
NAME                             DESCRIPTION                                     STARS               OFFICIAL            AUTOMATED
wurstmeister/kafka               Multi-Broker Apache Kafka Image                 678                                     [OK]
spotify/kafka                    A simple docker image with both Kafka and Zo…   314                                     [OK]
sheepkiller/kafka-manager        kafka-manager                                   131                                     [OK]
ches/kafka                       Apache Kafka. Tagged versions. JMX. Cluster-…   106                                     [OK]
...

比较出名的有以下几个:

  • wurstmeister/kafka

特点:star数最多,版本更新到 Kafka 1.0 ,zookeeper与kafka分开于不同镜像。

  • spotify/kafka

特点:star数较多,有很多文章或教程推荐,zookeeper与kafka置于同一镜像中;但kafka版本较老(还停留在0.10.1.0)。

  • confluent/kafka

背景:Confluent是书中提到的那位开发Kafka的Jay Kreps 从LinkedIn离职后创立的新公司,Confluent Platform 是一个流数据平台,围绕着Kafka打造了一系列产品。

特点:大咖操刀,文档详尽,但是也和Confluent Platform进行了捆绑。

  • 最终选择

此处选择 wurstmeister/kafka。

拉取镜像

  • zookeeper
$   docker pull wurstmeister/zookeeper
  • kafka
$   docker pull wurstmeister/kafka
  • 设置 docker-compose.yml

可以参考 wurstmeister/docker-compose.yml

version: '2'
services:
  zookeeper:
    image: wurstmeister/zookeeper
    ports:
      - "2181:2181"
  kafka:
    build: .
    ports:
      - "9092"
    environment:
      KAFKA_ADVERTISED_HOST_NAME: 127.0.0.1
      KAFKA_ZOOKEEPER_CONNECT: zookeeper:2181
    volumes:
      - /var/run/docker.sock:/var/run/docker.sock

启动镜像

  • zookeeper
docker run -d --name zookeeper --publish 2181:2181  wurstmeister/zookeeper
  • zookeeper启动完成后再启动kafka:
docker run -d --name kafka --publish 9092:9092 \
--link zookeeper \
--env KAFKA_ZOOKEEPER_CONNECT=zookeeper:2181 \
--env KAFKA_ADVERTISED_HOST_NAME=127.0.0.1 \
--env KAFKA_ADVERTISED_PORT=9092 \
wurstmeister/kafka
  • 查看状态
$ docker ps
CONTAINER ID        IMAGE                    COMMAND                  CREATED             STATUS              PORTS                                                                                        NAMES
6adb9863a48a        wurstmeister/kafka       "start-kafka.sh"         16 seconds ago      Up 15 seconds       0.0.0.0:9092->9092/tcp                                                                       kafka
125098d25e6b        wurstmeister/zookeeper   "/bin/sh -c '/usr/sb…"   27 seconds ago      Up 25 seconds       22/tcp, 2888/tcp, 3888/tcp, 0.0.0.0:2181->2181/tcp                                           zookeeper

可靠性测试

根据 container 名称,进入 kafka 容器

$   docker exec -it kafka /bin/bash
  • 创建 topic
kafka-topics.sh --create --topic test --zookeeper zookeeper:2181 --replication-factor 1 --partitions 1

日志

Created topic "test".
  • 查看创建的 topic
kafka-topics.sh --zookeeper zookeeper:2181 --describe --topic test

信息如下:

Topic: test Partition: 0 Leader: 1001 Replicas: 1001 Isr: 1001
  • 发送信息
kafka-console-producer.sh --broker-list localhost:9092 --topic test

输入测试内容

>hello docker kafka
  • 接收消息
kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning

如同预期接收到对应的消息。

e8998eea7c01ce2928bed194628be285.png

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值