win10搭建并运行kafka

下载后,解压放在目录D:\bigdata(本文所用的目录)下,关于zookeeper以及kafka的目录,路径中最好不要出现空格,比如D:\Program Files,尽量别用,运行脚本时会有问题。

①进入zookeeper的相关设置所在的文件目录,例如本文的:D:\bigdata\zookeeper-3.4.10\conf

②将"zoo_sample.cfg"复制一份并命名为"zoo.cfg"

③打开zoo.cfg(至于使用什么编辑器,根据自己喜好选即可),找到并编辑:

将 dataDir=/tmp/zookeeper 改成

D:/bigdata/zookeeper-3.4.10/data或 D:\bigdata\zookeeper-3.4.10\data(路径仅为示例,具体可根据需要配置)

这里注意,路径要么是"/“分割,要么是转义字符”\",这样会生成正确的路径(层级,子目录)。

④与配置jre类似,在系统环境变量中添加:

a.系统变量中添加ZOOKEEPER_HOME=D:\bigdata\zookeeper-3.4.10

b.编辑系统变量中的path变量,增加%ZOOKEEPER_HOME%\bin

⑤在zoo.cfg文件中修改默认的Zookeeper端口(默认端口2181)

⑥打开cmd窗口,输入zkserver,运行Zookeeper,运行结果如下:

这里写图片描述

恭喜,Zookeeper已经安装完成,已在2181端口运行。

3.安装运行kafka

kafka下载地址:http://kafka.apache.org/downloads

要下载Binary downloads这个类型,不要下载源文件,这种方便使用。下载后,解压放在D:\bigdata目录下。

①进入kafka配置文件所在目录,D:\bigdata\kafka_2.11-0.9.0.1\config

②编辑文件"server.properties",找到并编辑:

log.dirs=/tmp/kafka-logs 改成 log.dirs=D:/bigdata/kafka_2.11-0.9.0.1/kafka-logs 或者 D:\bigdata\kafka_2.11-0.9.0.1\kafka-logs

同样注意:路径要么是"/“分割,要么是转义字符”\",这样会生成正确的路径(层级,子目录)。错误路径情况可自行尝试,文件夹名为这种形式:bigdatakafka_2.11-0.9.0.1kafka-logs

③在server.properties文件中,zookeeper.connect=localhost:2181代表kafka所连接的zookeeper所在的服务器IP以及端口,可根据需要更改。本文在同一台机器上使用,故不用修改。

④kafka会按照默认配置,在9092端口上运行,并连接zookeeper的默认端口2181。

还有一点特别注意:在kafka安装目录中找到bi
n\windows目录中的kafka-run-class.bat找到179行为%CLASSPATH%加上双引号。不然运行kafka的时候回提示报错:错误: 找不到或无法加载主类 Files\Java\jdk1.7.0_80\lib;

这里写图片描述

####运行kafka并一个简单的例子

提示:请确保启动kafka服务器前,Zookeeper实例已经在运行,因为kafka的运行是需要zookeeper这种分布式应用程序协调服务。

①进入kafka安装目录D:\bigdata\kafka_2.11-0.9.0.1

②按下shift+鼠标右键,选择"在此处打开命令窗口",打开命令行。

③在命令行中输入:

.\bin\windows\kafka-server-start.bat .\config\server.properties

回车。

④正确运行的情况为:

这里写图片描述

到目前为止,zookeeper以及kafka都已正确运行。保持运行状态,不要关闭。

创建主题

①创建主题,命名为"test0811",replicationfactor=1(因为只有一个kafka服务器在运行)。可根据集群中kafka服务器个数来修改replicationfactor的数量,以便提高系统容错性等。

②在D:\bigdata\kafka_2.11-0.9.0.1\bin\windows目录下打开新的命令行

③输入命令:

kafka-topics.bat --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test0909

回车

这里写图片描述

现在这样就创建了一个topic ,这个窗口可以关闭了。

接下来 创建生产者(producer)和消费者(consumer)

①在D:\bigdata\kafka_2.11-0.9.0.1\bin\windows目录下打开新的命令行。

②输入命令,启动producer:

kafka-console-producer.bat --broker-list localhost:9092 --topic test0811

该窗口不要关闭。

③在同目录下打开新的命令行。

④输入命令,启动consumer:

kafka-console-consumer.bat --bootstrap-server localhost:9092 --topic test0909 --from-beginning

####基于Console 在bin目录下,后缀 .sh

创建Topic

bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test

Producer发送消息

bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test

在控制台输入要发送的消息:

This is a message

This is another message

Consumer接收消息

bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning

  • 4
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是使用Docker Compose搭建运行Kafka服务的简单步骤: 1. 首先,您需要创建一个docker-compose.yml文件,其中包含Kafka服务的配置。以下是一个简单的docker-compose.yml文件,用于启动单个Kafka节点: ``` version: '3' services: zookeeper: image: 'bitnami/zookeeper:latest' ports: - '2181:2181' volumes: - 'zookeeper_data:/bitnami' kafka: image: 'bitnami/kafka:latest' ports: - '9092:9092' environment: - KAFKA_ZOOKEEPER_CONNECT=zookeeper:2181 volumes: - 'kafka_data:/bitnami' volumes: zookeeper_data: driver: local kafka_data: driver: local ``` 在上面的配置中,我们使用了Bitnami提供的Kafka和Zookeeper镜像,并将它们分别命名为zookeeper和kafka。我们还指定了Zookeeper的端口号为2181,Kafka的端口号为9092。 2. 然后,您需要在命令行中导航到包含docker-compose.yml文件的目录,并运行以下命令来启动Kafka服务: ``` docker-compose up -d ``` 这将在后台启动Kafka服务。 3. 要检查Kafka服务是否正在运行,请使用以下命令: ``` docker-compose ps ``` 这将显示正在运行Kafka服务。 4. 最后,您可以使用Kafka的客户端工具来测试Kafka服务是否正在工作。例如,您可以使用以下命令向Kafka发送一条消息: ``` docker run --net=docker_kafkanet --rm confluentinc/cp-kafka:6.2.0 kafka-console-producer --broker-list kafka:9092 --topic test ``` 然后,您可以使用以下命令从Kafka中读取消息: ``` docker run --net=docker_kafkanet --rm confluentinc/cp-kafka:6.2.0 kafka-console-consumer --bootstrap-server kafka:9092 --topic test --from-beginning ``` 如果您看到了您发送的消息,则表示Kafka服务已经成功启动
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值