kafka安装和启动

快速启动

kafka的背景知识已经讲了很多了,让我们现在开始实践吧,假设你现在没有任何Kafka或ZooKeeper环境。

Step 1: 下载代码

下载0.10.0.0版本并且解压它。

> tar -xzf kafka_2.11-0.10.0.0.tgz 
> cd kafka_2.11-0.10.0.0
Step 2: 启动服务

运行kafka需要使用Zookeeper,所有你需要先启动一个Zookeeper服务器,如果你没有Zookeeper,你可以使用kafka自带打包和配置好的Zookeeper。

 

> bin/zookeeper-server-start.sh config/zookeeper.properties

 

现在启动kafka服务

> bin/kafka-server-start.sh ../config/server.properties &

Step 3: 新建一个主题(topic)

创建一个名为“test”的Topic,只有一个分区和一个备份:

> bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test
创建好之后,可以通过运行以下命令,查看已创建的topic信息:
> bin/kafka-topics.sh --list --zookeeper localhost:2181test

或者,除了手工创建topic外,你也可以配置你的broker,当发布一个不存在的topic时自动创建topic。

Step 4: 发送消息
Kafka提供了一个命令行的工具,可以从输入文件或者命令行中读取消息并发送给Kafka集群。每一行是一条消息。

运行producer(生产者),然后在控制台输入几条消息到服务器。

> bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test 

This is a message
This is another message
Step 5: 消费消息
Kafka也提供了一个消费消息的命令行工具,将存储的信息输出出来。 
> bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginningThis is a message
This is another message
如果你有2台不同的终端上运行上述命令,那么当你在运行生产者时,消费者就能消费到生产者发送的消息。

所有的命令行工具有很多的选项,你可以查看文档来了解更多的功能。

Step 6: 设置多个broker集群
到目前,我们只是单一的运行一个broker,,没什么意思。对于Kafka,一个broker仅仅只是一个集群的大小, 所有让我们多设几个broker.

首先为每个broker创建一个配置文件: 

> cp config/server.properties config/server-1.properties 
> cp config/server.properties config/server-2.properties

现在编辑这些新建的文件,设置以下属性:

config/server-1.properties: 
    broker.id=1 
    listeners=PLAINTEXT://:9093 
    log.dir=/tmp/kafka-logs-1
 
config/server-2.properties: 
    broker.id=2 
    listeners=PLAINTEXT://:9094 
    log.dir=/tmp/kafka-logs-2

 

broker.id是集群中每个节点的唯一永久的名称,我们修改端口和日志分区是因为我们现在在同一台机器上运行,我们要防止broker改写同一端口上注册的数据。

我们已经运行了zookeeper和刚才的一个kafka节点,所有我们只需要在启动2个新的kafka节点。

> bin/kafka-server-start.sh config/server-1.properties &... > bin/kafka-server-start.sh config/server-2.properties &

...
现在,我们创建一个新topic,把备份设置为:3
> bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 1 --topic my-replicated-topic
好了,现在我们已经有了一个集群了,我们怎么知道每个集群在做什么呢?
运行命令“describe topics”
> bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic

Topic:my-replicated-topic	PartitionCount:1	ReplicationFactor:3	Configs:
Topic: my-replicated-topic	Partition: 0	Leader: 1	Replicas: 1,2,0	Isr: 1,2,0

这是一个解释输出,第一行是所有分区的摘要,每一个线提供一个分区信息,因为我们只有一个分区,所有只有一条线。

"leader":该节点负责所有指定的分区读和写,每个节点将领导一个随机选择的分区。
"replicas":备份的节点,无论该节点是否活着,只是显示。
"isr":备份节点的集合,也就是活着的节点集合。

我们运行这个命令,看看一开始我们创建的那个节点。

> bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic test 

Topic:test	PartitionCount:1	ReplicationFactor:1	Configs:
Topic: test	Partition: 0	Leader: 0	Replicas: 0	Isr: 0

没有惊喜,原始主题没有Replicas,所以是0。

 

让我们来发布一些信息在新的topic上:

> bin/kafka-console-producer.sh --broker-list localhost:9092 --topic my-replicated-topic ...
my test message 1
my test message 2
^C
现在,消费这些消息。
> bin/kafka-console-consumer.sh --zookeeper localhost:2181 --from-beginning --topic my-replicated-topic 
...
my test message 1
my test message 2

我们要测试集群的 容错,kill掉leader,Broker1作为当前的leader,也就是kill掉Broker1。
> ps | grep server-1.properties

7564 ttys002    0:15.91 /System/Library/Frameworks/JavaVM.framework/Versions/1.6/Home/bin/java... 

> kill -9 7564
备份节点之一成为新的leader,而broker1已经不在同步备份集合里了。 
> bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic

Topic:my-replicated-topic	PartitionCount:1	ReplicationFactor:3	Configs:
Topic: my-replicated-topic	Partition: 0	Leader: 2	Replicas: 1,2,0	Isr: 2,0

但是,消息没仍然没丢:

> bin/kafka-console-consumer.sh --zookeeper localhost:2181 --from-beginning --topic my-replicated-topic
...
my test message 1
my test message 2


 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

青年IT男

您的打赏就是对我的肯定!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值