- 搜索zookeeper官方镜像
OFFICIAL为官方镜像 docker search zookeeper下来
- 先pull下官方镜像
latest是最新的版本
- 同样
docker pull wurstmeister/kafka:latest
下载kafaka - 都下载好了,我们开始运行我们的镜像,在windows上是不存在volume卷的问题的,
只有在linux上我们需要指定volume
我们可以通过docker run -d --name zookeeper --publish 2181:2181 zookeeper:latest
来运行 也可以通过windows上自带的run 按钮 - 绿色代表运行成功
如图所示
- 下一把都运行成功,我们需要进入cli向kafka发送测试消息了。进入cli有两种方式 1:是 运行 docker ps,找到kafka的 CONTAINER ID,运行 docker exec -it ${CONTAINER ID} /bin/bash来进入kafka容器 2:是直接通过windows上的docker直接点击cli按钮进入。 进入目录
cd opt/kafaka_版本/bin下
。 - 创建主题 。
// 创建一个topic为名称test的主题
kafka-topics.sh --create --zookeeper zookeeper:2181 --replication-factor 1 --partitions 1 --topic test
- 创建消息生产者。
// 输入测试消息
kafka-console-producer.sh --broker-list localhost:9092 --topic test
- 运行消费者消息 。
// 接收生产者发送的消息
kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning
成功案例展示
这样我们就可以分析不同的topic订阅者,来进行数据处理和分析。把数据存在数据库中,像这种log型数据建议放在 mongodb 或 hbase 。