#解压、重命名和环境变量
tar -zxvf kafka_2.12-2.8.0.tgz -C /opt/software/
[root@single01 software]# vim /etc/profile.d/my.sh
#---------------------------------------------------------
#kafka_2.12-2.8.0
export KAFKA_HOME=/opt/software/kafka_2.12-2.8.0
export PATH=$PATH:$KAFKA_HOME/bin
#-----------------------------------------------------------
source /etc/profile
#配置zookeeper管理
[root@single01 kafka_2.12-2.8.0]# vim config/server.properties
#-------------------------------------------------------------
num.partitions=1 #最佳配置为broker的数量(不用改动)
#超过一周或文件大小超过一个G,删除历史数据
log.retention.hours=168 #数据保留一周
log.segment.bytes=1073741824 #数据最大为一个G
log.retention.check.interval.ms=300000 #多久检查一次,根据规则删除数据
zookeeper.connect=single01:2181
#--------------------------------------------------------------
###########
#kraft模式#
###########
#Kafka集群元数据存储在 Controller 节点的 KRaft Quorum中
config/kraft/server.properties
#-------------------------------------------
advertised.listeners=PLAINTEXT:single01:9092
#-------------------------------------------
cd /opt/software/kafka_2.12-2.8.0/config/kraft
#生成唯一ID
kafka-storage.sh random-uuid #=>uPPK2JbeSHO34RGD4Ny4VQ
#格式化
kafka-storage.sh format -t uPPK2JbeSHO34RGD4Ny4VQ -c server.properties
#如果为集群每个节点都要执行
#kraft模式启动服务
[root@single01 kraft]# kafka-server-start.sh server.properties
#或kafka-server-start.sh /opt/software/kafka_2.12-2.8.0/config/kraft/server.properties
#启动服务(Kafka集群的元数据存储在ZooKeeper集群中)
[root@single01 ~]# kafka-server-start.sh /opt/software/kafka_2.12-2.8.0/config/server.properties
nohup kafka-server-start.sh /opt/software/kafka_2.12-2.8.0/config/server.properties 1>/dev/null 2>&1 &