kafka安装和简单测试

本文介绍了Apache Kafka 2.0及更高版本的安装步骤,包括下载、启动Zookeeper和Kafka服务器、创建Topic、运行Producer和Consumer。通过实例展示了如何发布和消费消息,验证Kafka的正确安装与运行。
摘要由CSDN通过智能技术生成

Kafka的安装和简单实例测试_厦大数据库实验室博客

ps:上边文章的kafka版本有点老,是0.10.1.0版本的。

最新的kafka版本启动和创建topic等命令有所改变。

核心概念

下面介绍Kafka相关概念,以便运行下面实例的同时,更好地理解Kafka.
1. Broker
Kafka集群包含一个或多个服务器,这种服务器被称为broker
2. Topic
每条发布到Kafka集群的消息都有一个类别,这个类别被称为Topic。(物理上不同Topic的消息分开存储,逻辑上一个Topic的消息虽然保存于一个或多个broker上但用户只需指定消息的Topic即可生产或消费数据而不必关心数据存于何处)
3. Partition
Partition是物理上的概念,每个Topic包含一个或多个Partition.
4. Producer
负责发布消息到Kafka broker
5. Consumer
消息消费者,向Kafka broker读取消息的客户端。
6. Consumer Group
每个Consumer属于一个特定的Consumer Group(可为每个Consumer指定group name,若不指定group name则属于默认的group)

kafka2.0之后的版本部署手顺:

1.下载

https://kafka.apache.org/downloads

weget https://dlcdn.apache.org/kafka/3.2.0/kafka_2.12-3.2.0.tgz

2.启动zooker

cd /usr/local/kafka

bin/zookeeper-server-start.sh config/zookeeper.properties

命令执行后不会返回Shell命令输入状态,zookeeper就会按照默认的配置文件启动服务,

请千万不要关闭当前终端.

启动新的终端,输入下边的启动kafka命令

3.启动kafka

bin/kafka-server-start.sh config/server.properties

请千万不要关闭当前终端.

启动新的终端,输入下边的创建topic命令

4.创建一个topic

#创建topic
bin/kafka-topics.sh --create --topic dblab --bootstrap-server localhost:9092

#展示topic
bin/kafka-topics.sh --bootstrap-server localhost:2181 --list

可以再打开一个新的窗口,新建一个producer

5.开启一个producer

#启动producer
bin/kafka-console-producer.sh --broker-list localhost:9092 --topic dblab

然后再次开启新的终端或者直接按CTRL+C退出。然后使用consumer来接收数据,输入如下命令:

6.开启一个consumer

#启动一个consumer
bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic dblab

7.验证

在producer窗口中输入字符,然后在consumer中查看是否显示。

老版本0.10.1.0的kafka安装手顺如下:

Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据。Kafka的目的是通过Hadoop的并行加载机制来统一线上和离线的消息处理,也是为了通过集群机来提供实时的消费。下面介绍有关Kafka的简单安装和使用,想全面了解Kafka,请访问Kafka的官方博客

安装

Kafka的使用依赖于zookeeper,安装Kafka前必须先安装zookeeper.

Mac OSX 系统安装Kafka

Mac 系统安装使用HomeBrew工具安装kafka.HomeBrew会自动把所依赖的工具和软件安装好。HomeBrew会把kafka和zookeeper安装在/usr/local/Cellar/ 目录下。
在终端中执行如下命令:

 
  1. brew install kafka

Shell 命令

执行完如上命令,系统自动安装好zookeeper和kafka.

Ubuntu 系统安装Kafka

访问Kafka官方下载页面,下载稳定版本0.10.1.0的kafka.此安装包内已经附带zookeeper,不需要额外安装zookeeper.按顺序执行如下步骤:

 
  1. cd ~/下载
  2. sudo tar -zxf kafka_2.11-0.10.1.0.tgz -C /usr/local
  3. cd /usr/local
  4. sudo mv kafka_2.11-0.10.1.0/ ./kafka
  5. sudo chown -R hadoop ./kafka

Shell 命令

核心概念

下面介绍Kafka相关概念,以便运行下面实例的同时,更好地理解Kafka.
1. Broker
Kafka集群包含一个或多个服务器,这种服务器被称为broker
2. Topic
每条发布到Kafka集群的消息都有一个类别,这个类别被称为Topic。(物理上不同Topic的消息分开存储,逻辑上一个Topic的消息虽然保存于一个或多个broker上但用户只需指定消息的Topic即可生产或消费数据而不必关心数据存于何处)
3. Partition
Partition是物理上的概念,每个Topic包含一个或多个Partition.
4. Producer
负责发布消息到Kafka broker
5. Consumer
消息消费者,向Kafka broker读取消息的客户端。
6. Consumer Group
每个Consumer属于一个特定的Consumer Group(可为每个Consumer指定group name,若不指定group name则属于默认的group)

测试简单实例

接下来在Ubuntu系统环境下测试简单的实例。Mac系统请自己按照安装的位置,切换到相应的指令。按顺序执行如下命令:

 
  1. # 进入kafka所在的目录
  2. cd /usr/local/kafka
  3. bin/zookeeper-server-start.sh config/zookeeper.properties

Shell 命令

命令执行后不会返回Shell命令输入状态,zookeeper就会按照默认的配置文件启动服务,请千万不要关闭当前终端.启动新的终端,输入如下命令:

 
  1. cd /usr/local/kafka
  2. bin/kafka-server-start.sh config/server.properties

Shell 命令

kafka服务端就启动了,请千万不要关闭当前终端。启动另外一个终端,输入如下命令:

 
  1. cd /usr/local/kafka
  2. bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic dblab

Shell 命令

topic是发布消息发布的category,以单节点的配置创建了一个叫dblab的topic.可以用list列出所有创建的topics,来查看刚才创建的主题是否存在。

 
  1. bin/kafka-topics.sh --list --zookeeper localhost:2181

Shell 命令

可以在结果中查看到dblab这个topic存在。接下来用producer生产点数据:

 
  1. bin/kafka-console-producer.sh --broker-list localhost:9092 --topic dblab

Shell 命令

并尝试输入如下信息:

hello hadoop
hello xmu
hadoop world

然后再次开启新的终端或者直接按CTRL+C退出。然后使用consumer来接收数据,输入如下命令:

 
  1. cd /usr/local/kafka
  2. bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic dblab --from-beginning

Shell 命令

便可以看到刚才产生的三条信息。说明kafka安装成功。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值