nohup bin/zookeeper-server-start.sh config/zookeeper.properties >/dev/null 2>&1 &
(2)启动kafka-broker服务命令
nohup bin/kafka-server-start.sh config/server.properties >/dev/null 2>&1 &
(3)创建一个主题topic命令
bin/kafka-topics.sh --create --topic news_doc --replication-factor 2 --partitions 5 --zookeeper localhost:2181
(4)查看所有的topic列表命令
bin/kafka-topics.sh --list --zookeeper localhost:2181
(5)删除一个主题topic命令
bin/kafka-topics.sh --delete--zookeeper localhost:2181 --topic news_doc
bin/kafka-run-class.sh kafka.admin.DeleteTopicCommand--zookeeper localhost:2181 --topic news_doc
(6)查看topic内的数据(开启一个消费者)
bin/kafka-console-consumer.sh --bootstrap-server 10.1.101.2:9092 --topic news_doc --group test_group_name --from-beginning
(7)查看已创建主题topic的信息
bin/kafka-topics.sh --describe --zookeeper 10.136.64.57:2181 --topic news_doc
(8)查看group列表
bin/kafka-consumer-groups.sh --bootstrap-server 10.1.101.2:9092 --list
(9)查看topic下group的消费情况
bin/kafka-consumer-groups.sh --bootstrap-server 10.1.101.2:9092 --topic news_doc --describe
(10)手动设置offset
停止consumer后,设置group=tang,topic=test的offset为1524510
bin/kafka-consumer-groups.sh --bootstrap-server 10.1.101.2:9092 --group tang --topic test --execute --reset-offsets --to-offset 1524510
(11)Kafka集群扩展以及重新分布分区
向已经部署好的Kafka集群里面添加机器是最正常不过的需求,但是新添加的Kafka节点并不会自动地分配数据,所以无法分担集群的负载,除非我们新建一个topic。但是现在我们想手动将部分分区移到新添加的Kafka节点上,Kafka内部提供了自带的kafka-reassign-partitions.sh工具来重新分布某个topic的分区。