**截图**
![在这里插入图片描述](https://img-blog.csdnimg.cn/cd0e52c40a46475d98f049028a3ba997.png)
之后的相关命令若涉及容器id,请自行更换
## 文件与配置
### 目录
docker exec -it a0 ls /opt/bitnami/kafka
**查看目录命令**
**截图**
![在这里插入图片描述](https://img-blog.csdnimg.cn/7b11b74b438d4d4787c68a4c4311ee36.png)
重要目录解释如下:
* bin: 脚本目录
* config:配置目录
* libs:第三方依赖库目录
* logs:日志
#### bin
重要的shell脚本加粗了,之后会用
>
> connect-distributed.sh kafka-dump-log.sh kafka-storage.sh
> connect-mirror-maker.sh kafka-features.sh kafka-streams-application-reset.sh
> connect-standalone.sh kafka-get-offsets.sh **kafka-topics.sh**
> kafka-acls.sh kafka-leader-election.sh kafka-transactions.sh
> kafka-broker-api-versions.sh kafka-log-dirs.sh kafka-verifiable-consumer.sh
> kafka-cluster.sh kafka-metadata-shell.sh kafka-verifiable-producer.sh
> kafka-configs.sh kafka-mirror-maker.sh trogdor.sh
> **kafka-console-consumer.sh** kafka-producer-perf-test.sh windows
> **kafka-console-producer.sh** kafka-reassign-partitions.sh zookeeper-security-migration.sh
> kafka-consumer-groups.sh kafka-replica-verification.sh zookeeper-server-start.sh
> kafka-consumer-perf-test.sh kafka-run-class.sh zookeeper-server-stop.sh
> kafka-delegation-tokens.sh **kafka-server-start.sh** zookeeper-shell.sh
> kafka-delete-records.sh **kafka-server-stop.sh**
>
>
>
#### config
>
> connect-console-sink.properties connect-mirror-maker.properties **server.properties**
> connect-console-source.properties connect-standalone.properties tools-log4j.properties
> connect-distributed.properties **consumer.properties** trogdor.conf
> connect-file-sink.properties kraft zookeeper.properties
> connect-file-source.properties log4j.properties
> connect-log4j.properties **producer.properties**
>
>
>
### 配置文件
#### server.properties
* broker.id: 唯一id值,通过环境变量设置为了1
* log.dirs: kafka集群日志目录,默认是log.dirs=/bitnami/kafka/data
* zookeeper.connect:zookeeper地址端口,格式域名/ip:port,这块是zookeeper:2181,在docker的网络中可以解析为另一容器的ip
更多配置可以查看参考中Dockerhub链接的Configuration部分
![在这里插入图片描述](https://img-blog.csdnimg.cn/45cb231dee6c495c8191638fc98b18d7.png)
#### producer.properties
* bootstrap.servers:kafka的ip:port,这里是localhost:9092
* compression.type:压缩类型,默认是none, 一共有四种,none, gzip, snappy, lz4, zstd,推荐排序LZ4 > GZIP > Snappy,详见腾讯云压缩算法对比
#### consumer.properties
* group.id:消费者组id,默认为test-consumer-group
* auto.offset.reset:offset设置,三种latest, earliest, none,看情况设置
## 命令行简单使用
### kafka-topics.sh
对主题topic进行增删改查的工具
![在这里插入图片描述](https://img-blog.csdnimg.cn/eb4862b5788b452eaa992eae4cddd9ca.png)
常用选项如下:
* --bootstrap-server:kafka服务器ip:port,**必须的**
* --create:创建主题
* --delete:删除主题
* --describe:描述主题
* --list:查看主题列表
* --alter:修改主题的 partitions等
* --topic <String: topic>:主题名
* --topic-id <String: topic-id>:主题id
* --partitions <Integer: # of partitions>:主题的partition
#### 新增
**命令**
docker exec -it a0 /opt/bitnami/kafka/bin/kafka-topics.sh --bootstrap-server=127.0.0.1:9092 --create --topic lady_killer9
**截图**
![在这里插入图片描述](https://img-blog.csdnimg.cn/ef13edea559b4ea5a0af2baa89690a9a.png)
#### 查看列表
**命令**
docker exec -it a0 /opt/bitnami/kafka/bin/kafka-topics.sh --bootstrap-server=127.0.0.1:9092 --list
**截图**
![在这里插入图片描述](https://img-blog.csdnimg.cn/93a0839782674212a589f9f8608ac282.png)
#### 查看详情
**命令**
docker exec -it a0 /opt/bitnami/kafka/bin/kafka-topics.sh --bootstrap-server=127.0.0.1:9092 --describe --topic lady_killer9
**截图**
![在这里插入图片描述](https://img-blog.csdnimg.cn/fe9eb8f5cf434e27a217e751d959d145.png)
#### 修改
**命令**
以修改主题partiion数量为例
docker exec -it a0 /opt/bitnami/kafka/bin/kafka-topics.sh --bootstrap-server=127.0.0.1:9092 --alter --topic lady_killer9 --partitions 3
**截图**
![在这里插入图片描述](https://img-blog.csdnimg.cn/d7cde5a0fa1e4dd68f126144ba808133.png)
#### 删除
**命令**
docker exec -it a0 /opt/bitnami/kafka/bin/kafka-topics.sh --bootstrap-server=127.0.0.1:9092 --delete --topic lady_killer9
**截图**
![在这里插入图片描述](https://img-blog.csdnimg.cn/a5aea0b6e98d4e1c9513e08c73805fad.png)
### kafka-console-producer.sh
标准输入读数据,发送到Kafka的工具
![在这里插入图片描述](https://img-blog.csdnimg.cn/e05c21969f684318a2bc175dd44721cf.png)
常用选项如下:
* --bootstrap-server:kafka服务器ip:port,**必须的**
* --topic <String: topic> :Kafka主题,**必须的**
* --sync:同步发送
* --compression-codec [String: compression-codec] :压缩方式,‘none’,‘gzip’, ‘snappy’, ‘lz4’, , ‘zstd’,默认gzip.
**命令**
docker exec -it a0 /opt/bitnami/kafka/bin/kafka-topics.sh --bootstrap-server=127.0.0.1:9092 --create --topic demo
docker exec -it a0 /opt/bitnami/kafka/bin/kafka-console-producer.sh --bootstrap-server=127.0.0.1:9092 --topic demo
**截图**
![在这里插入图片描述](https://img-blog.csdnimg.cn/277f937ee57c416283e9c178232721cb.png)
### kafka-console-consumer.sh
![在这里插入图片描述](https://img-blog.csdnimg.cn/124cb972d6ad4b879db37f56819bd281.png)
常用选项如下:
* --bootstrap-server:kafka服务器ip:port,**必须的**
* --topic <String: topic> :Kafka主题,**必须的**
* --group <String: consumer group id>:消费者组id
* --key-deserializer <String: deserializer for key>:key反序列化,默认是org.apache.kafka.common.serialization.StringDeserializer
* --value-deserializer <String: deserializer for values>:value反序列化,默认是org.apache.kafka.common.serialization.StringDeserializer
* --offset <String: consume offset>:消费的offset
* --partition <Integer: partition>:消费的分区
**命令**
docker exec -it a0 /opt/bitnami/kafka/bin/kafka-console-consumer.sh --bootstrap-server=127.0.0.1:9092 --topic demo
**截图**
![在这里插入图片描述](https://img-blog.csdnimg.cn/9bc8a61f2145445f9d3f71ca043d94fb.png)
**命令**
docker exec -it a0 /opt/bitnami/kafka/bin/kafka-console-consumer.sh --bootstrap-server=127.0.0.1:9092 --topic demo --partition 0 --offset 2
**截图**
![在这里插入图片描述](https://img-blog.csdnimg.cn/fa8707f3578e4660bfdbb3b0243cdb2d.png)
上手之后我们再来了解一些概念。
## 写在最后
**在结束之际,我想重申的是,学习并非如攀登险峻高峰,而是如滴水穿石般的持久累积。尤其当我们步入工作岗位之后,持之以恒的学习变得愈发不易,如同在茫茫大海中独自划舟,稍有松懈便可能被巨浪吞噬。然而,对于我们程序员而言,学习是生存之本,是我们在激烈市场竞争中立于不败之地的关键。一旦停止学习,我们便如同逆水行舟,不进则退,终将被时代的洪流所淘汰。因此,不断汲取新知识,不仅是对自己的提升,更是对自己的一份珍贵投资。让我们不断磨砺自己,与时代共同进步,书写属于我们的辉煌篇章。**
需要完整版PDF学习资源私我
**网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**
**[需要这份系统化资料的朋友,可以点击这里获取](https://bbs.csdn.net/topics/618540462)**
**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**