kafka操作命令

 1.查看kafka内所有的topic
kafka-topics.sh -zookeeper 192.168.225.228:2181/kafka  --list

2.查看指定topic的消费数据
./kafka-topics.sh --zookeeper 192.168.225.228:2181/kafka --describe -topic flowStat

6.查看topic 为 first的 详细信息
./bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --describe --topic first

7.创建一个topic
bin/kafka-topics.sh –zookeeper IOT-ZK01:2181/kafka –create –topic TextPush –replication-factor 2 –partitions 5

8.删除一个topic(慎用)
bin/kafka-topics.sh –zookeeper IOT-ZK01:2181/kafka –delete –topic TextPush

4.启动producer(生产者) 控制台向topic 生产数据
bin/kafka-console-producer.sh –broker-list localhost:9092 –topic periodicChangeV2

5.启动consumer(消费者) 主动消费topic里的数据(数据会被消费,慎用 kafka-console-consumer.sh脚本模拟终端消费者消费消息)
bin/kafka-console-consumer.sh –zookeeper IOT-ZK01:2181/kafka –topic periodicChange –from-beginning
consumer-property 参数以键值对的形式指定消费者级别的配置。
from-beginning 设置消息起始位置开始消费。默认是从新位置 latest开始消费
delete-consumer-offsets 删除在zookeeper中记录已消费的偏移量

查看主题消费情况命令:
kafka-consumer-offset-checker.sh --zookeeper 10.128.5.98:2181 --topic ai_jl_metricdata --group ai-metricdata

kafka-consumer-groups.sh --bootstrap-server 10.128.5.98:9092 --describe --group ai-metricdata 

修改topic partitions数量
bin/kafka-topics.sh --zookeeper 10.128.5.98:2181 -alter --partitions 3 --topic ai_jl_metricdata

限流(根据每秒字节数)
kafka-configs.sh --zookeeper localhost:2181 --alter --add-config 'producer_byte_rate=24576000,consumer_byte_rate=24576000' --entity-type clients --entity-default
./kafka-configs.sh --zookeeper localhost:2181 --alter --add-config 'producer_byte_rate=1024' --entity-type clients --entity-default
.kafka-configs.sh --zookeeper localhost:2181 --alter --add-config 'producer_byte_rate=1536000'--entity-type clients --entity-default

reassign检验:
kafka-reassign-partitions.sh --zookeeper localhost:2181 --reassignment-json-file increase-replication-factor.json --verify

kafka日志文件转换为可读形式
./kafka-run-class.sh kafka.tools.DumpLogSegments --files /opt/data/kafka//logs/P2P-3/00000000000223999853.log? --print-data-log > /index/index.txt

定位down机后的offset
P2P.tbBorrowerBill
demo=>查找分区下的log 分区3
执行(建议把分区文件复制到外面,再进行转换!)
./kafka-run-class.sh kafka.tools.DumpLogSegments --files /opt/data/kafka//logs/P2P-3/00000000000223999853.log? --print-data-log > /index/index.txt将二进制文件转成可读形式
根据时间戳查找定位0:00:00点的纪录
grep '15346944*' index.txt| head -300>log.txt
offset: 225133742 position: 275076651 CreateTime: 1534694407869

java查看jvm
jstack -l pid
jmap -dump:live,format=b,file=/opt/map.bin pid

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值