kafka相关操作

kafka安装

下载 

wget http://apache.gree.com/apache/kafka/1.0.2/kafka_2.11-1.0.2.tgz

tar -zxvf kafka_2.11-1.0.2.tgz -C /usr/local/

mv /usr/local/kafka_2.11-1.0.2 /usr/local/kafka

 

cd /usr/local/kafka/config/

vi server.properties

broker.id=0                   这里的id每个kafka的id都是唯一的

host.name=10.2.xxx.xx         设置当前机器的IP

zookeeper.connect=10.2.xxx.xx:2181,10.2.xx.xxx:2181,10.2.xxx.xx:2181   设置zookeeper的地址

log.dirs=/tmp/kafka0-logs     设置日志地址,不同机器上的地址可能需要区别一下,避免broker启动不起来

 

其他节点配置类似

启动kafka

/usr/local/kafka/bin/kafka-server-start.sh --daemon  /usr/local/kafka/config/server.properties 1>/dev/null 2>&1 &

添加--daemon让kafka在后台以守护进程的方式启动,不会自动停掉

创建topic,名为netSwitch ,分区数为3(--partition 3),总备份数为2(--replication-factor 2),备份数不可超过机器的数量,分区数可以大于机器的数量

/usr/local/kafka/bin/kafka-topics.sh --create --zookeeper HDP-master,HDP-slave1,HDP-slave2 --replication-factor 2 --partitions3 --topic netSwitch

查看topic的描述

/usr/local/kafka/bin/kafka-topics.sh --describe --zookeeper HDP-master,HDP-slave1,HDP-slave2 --topic netSwitch

Topic:netSwitch  PartitionCount:3                            ReplicationFactor:2

Topic:netSwitch    Partition:0        Leader:2          Replicas: 2,0         Isr: 2,0

Topic:netSwitch    Partition:1        Leader:0          Replicas: 0,1         Isr: 0,1

Topic:netSwitch    Partition:2        Leader:1          Replicas: 1,2         Isr: 1,2

其中Leader表示数据所在节点,在其他节点上的数据为备份数据

列出所有topic

/usr/local/kafka/bin/kafka-topics.sh --list --zookeeper HDP-master,HDP-slave1,HDP-slave2

kafka的topic数据保存在之前配置的日志文件目录下(server.properties文件中log.dirs的值,默认为/tmp/kafka0-logs),如果要删除某个topic,需要删除日志目录下对应的文件夹

 

查看已注册到zookeeper中的broker个数

/usr/lcoal/zookeeper/bin/zkCli.sh             进入zookeeper命令行

ls /brokers/ids                               列出已注册的brokers的id

out:[1,2]                                     id为1,2的节点注册正常,0节点异常?

quit                                          退出zookeeper命令行

修改log.dirs的值为不同目录名后正常启动

 

 

发送消息到broker (生产者)

/usr/local/bin/kafka-console-producer.sh --broker-list HDP-master:9092 --topic netSwitch

>this is the first hdp-master test message

>this is the second hdp-master test message

>three of it

^c                                    ctrl+c 退出并发送消息

从broker消费消息 (消费者)

/usr/local/bin/kafka-console-consumer.sh --zookeeper HDP-master,HDP-salve1,HDP-slave2 --from-beginning --topic netSwitch

this is the first hdp-master test message

three of it 

this is the second hdp-master test message

 

可以看出消费kafka的topic数据时,不一定是按顺序来的,因为这些数据在不同的partition分区,kafka只能保证同一分区上的数据是按顺序读取的,

可以通过某种方式,设置某一类型的数据被发送到同一分区。

 

转载于:https://www.cnblogs.com/Ting-light/p/11311720.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值