1、查看当前kafka服务器中的所有topic
./kafka-topics.sh --list --zookeeper Hadoop01:2181,Hadoop02:2181
2、 使用命令行方式创建topic:
./kafka-topics.sh --create --zookeeper Hadoop01:2181,Hadoop02:2181 --replication-factor 2 --partitions 2 --topic general-ias-test1
参数说明:
--replication-factor : 表明 副本的个数, 这里写成2,表明会有两个副本
--partitions : 表明会有两个partition, 表现在log日志中,就是是有两个文件夹
3、查看某个Topic的详情
./kafka-topics.sh --topic test --describe --zookeeper zk01:2181
4、为topic增加副本
./kafka-reassign-partitions.sh -zookeeper 127.0.0.1:2181 -reassignment-json-file json/partitions-to-move.json -execute
5、为topic增加partition
./kafka-topics.sh --zookeeper 127.0.0.1:2181 --alter --partitions 20 --topic testKJ1
6、删除topic
./kafka-topics.sh --delete --zookeeper Hadoop01:2181,Hadoop02:2181 --topic general-ias-test1
注意:需要server.properties中设置delete.topic.enable=true 否则只是标记删除或者直接重启。
./kafka-run-class.sh kafka.admin.DeleteTopicCommand --topic testKJ1 --zookeeper Hadoop01:2181
7、查看consumer组内消费的offset
./kafka-run-class.sh kafka.tools.ConsumerOffsetChecker --zookeeper zk01:2181 --group testGroup
./kafka-run-class.sh kafka.tools.ConsumerOffsetChecker --zookeeper localhost:2181 --group test --topic testKJ1
8、kafka服务启动
./kafka-server-start.sh -daemon ../config/server.properties
9、下线broker
./kafka-run-class.sh kafka.admin.ShutdownBroker --zookeeper 127.0.0.1:2181 --broker #brokerId# --num.retries 3 --retry.interval.ms 60
shutdown broker
10、kafka生产者客户端命令
./kafka-console-producer.sh --broker-list localhost:9092 --topic testKJ1
11、kafka消费者客户端命令
./kafka-console-consumer.sh -zookeeper localhost:2181 --from-beginning --topic testKJ1
12、通过shell命令发送消息
./kafka-console-producer.sh --broker-list kafka01:9092 --topic itheima
13、通过shell消费消息
./kafka-console-consumer.sh --zookeeper zk01:2181 --from-beginning --topic test1