文末有大量学习资源哦,免费领取。如果觉得内容不错,别忘记一键三连哦!!!
目录
1、初始化环境
安装jdk,安装zookeeper并保证zk服务正常启动
2、下载安装包
node01执行以下命令,下载并解压
wget http://archive.apache.org/dist/kafka/1.0.0/kafka_2.11-1.0.0.tgz
tar –zxvf kafka_2.11-1.0.0.tgz -C /要解压的目录
3、01服务器修改kafka配置
vim server.properties
broker.id=0 // broker的标识符 可以被设置成其他的任意整数,这个值再kafka集群中必须是唯一的。
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
//kafka把所有的信息都保存在磁盘上,存放这些日志片段的目录是通过log.dirs指定的,
如果指定了多个路径,那么broker会根据”最少使用“的原则,把同一个分区的日式片段保存到同一路径下面。要注意,broker会往拥有最少数目分区的路径新增分区,而不是往最小磁盘空间的路径增加分区
log.dirs=/export/servers/kafka_2.11-1.0.0/logs
num.partitions=2
// 写此参数时需要注意,所配置的数字对应的时log.dors指定的单哥日志目录,也就是说,如果num.recovery.threads.per.data.dir设为8 并且log,dir制定了3个流经,那么总的线程数需要24线程
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.flush.interval.messages=10000
log.flush.interval.ms=1000
log.retention.hours=168
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
// 用于保存broker元数据的zookeeper地址,
zookeeper.connect=node01:2181,node02:2181,node03:2181
zookeeper.connection.timeout.ms=6000
group.initial.rebalance.delay.ms=0
delete.topic.enable=true
host.name=node01
4、安装包分发
node01执行以下命令,将node01服务器的kafka安装包发送到node02和node03服务器上面去
cd /export/servers/
scp -r kafka_2.11-1.0.0/ node02:$PWD
scp -r kafka_2.11-1.0.0/ node03:$PWD
5、02与03服务器修改配置
vim server.properties
02配置
broker.id=1
host.name=node02
03配置
broker.id=2
host.name=node03
6、kafka启动与停止
注意事项:在kafka启动前,一定要让zookeeper启动起来。
node01,node02,node03执行以下命令将kafka进程启动在后台
cd /export/servers/kafka_2.11-1.0.0
nohup bin/kafka-server-start.sh config/server.properties 2>&1 &
停止kafka集群
bin/kafka-server-stop.sh
给大家准备的各类书籍都在这里啦,收集不易,期待您的一键三连,后续还会更新文章哦,谢谢您的关注和点赞,您的点赞会让我有加倍动力
链接:https://pan.baidu.com/s/1MH1eiwMv_XCCbFX3hwGu7g
提取码:70uy
https://shimo.im/docs/863dvkxgWHtwcWkh/ 《书籍》