【kafka】kafka的集群部署和测试&zookeeper的集群部署

文章目录一、下载安装包及解压二、修改配置文件三、把配置文件发给其他两个节点四、验证环境(三台都执行)五、启动命令六、启动命令行之后1、创建一个topic的命令2、创建一个生产者的命令3、创建一个消费者的命令4、删除一个topic5、查看topic的描述信息六、测试发送消息消费消息七、出现的问题:一、下载安装包及解压解压文件tar -zxvf kafka_2.11-1.0.0.tgz -C...
摘要由CSDN通过智能技术生成

一、下载安装包及解压
  1. 解压文件
tar -zxvf kafka_2.11-1.0.0.tgz -C /export/servers/ 
  1. 删除之前的安装记录
cd /export/servers/
rm -rf /export/servers/kafka
rm -rf /export/logs/kafka/
rm -rf /export/data/kafka
  1. 重命名
mv kafka_2.11-1.0.0 kafka 
二、修改配置文件

进入/export/servers/kafka/config
修改配置文件 vim server.properties
在这里插入图片描述
• Broker.id每个broker在集群中的唯一标识,正整数。当该服务器的ip地址发生变更,但broker.id未变,则不会影响consumers的消费情况
在这里插入图片描述
• listeners:kafka的监听地址与端口
在这里插入图片描述
• num.network.threads:kafka用于处理网络请求的线程数
• num.io.threads:kafka用于处理磁盘io的线程数
• socket.send.buffer.bytes:发送数据的缓冲区
• socket.receive.buffer.bytes:接收数据的缓冲区
• socket.request.max.bytes:允许接收的最大数据包的大小(防止数据包过大导致OOM)
在这里插入图片描述
在这里插入图片描述

• log.dirs:kakfa用于保存数据的目录,所有的消息都会存储在该目录当中。可以通过逗号来指定多个路径,kafka会根据最少被使用的原则选择目录分配新的partition。需要说明的是,kafka在分配partition的时候选择的原则不是按照磁盘空间大小来定的,而是根据分配的partition的个数多少而定
• num.partitions:设置新创建的topic的默认分区数
• number.recovery.threads.per.data.dir:用于恢复每个数据目录时启动的线程数
• log.retention.hours:配置kafka中消息保存的时间,还支持log.retention.minutes和log.retention.ms。如果多个同时设置会选择时间最短的配置,默认为7天。
• log.retention.check.interval.ms:用于检测数据过期的周期
• log.segment.bytes:配置partition中每个segment数据文件的大小。默认为1GB。超出该大小后,会自动创建一个新的segment文件。

在这里插入图片描述

• zookeeper.connect:指定连接的zk的地址,zk中存储了broker的元数据信息。可以通过逗号来设置多个值。格式为:hostname:port/path。hostname为zk的主机名或ip,port为zk监听的端口。/path表示kafka的元数据存储到zk上的目录,如果不设置,默认为根目录
• zookeeper.connection.timeout:kafka连接zk的超时时间
• group.initial.rebalance.delay.ms:在实际环境当中,当将多个consumer加入到一个空的consumer group中时,每加入一个consumer就会触发一次对partition消费的重平衡,如果加入100个

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值