kafka配置之service.properties文件

###### ###### ###### ############################# Server Basics #############################
# 唯一标识一个broker.
broker.id=1
############################# Socket Server Settings #############################
#绑定服务监听的地址和端口,要填写hostname -i 出来的地址,否则可能会绑定到127.0.0.1,producer可能会发不出消息
listeners=PLAINTEXT://172.23.8.144:9092
#broker对producers和consumers服务的地址和端口,如果没有配置,使用listeners的配置,本文没有配置该项
#advertised.listeners=PLAINTEXT://your.host.name:9092
# 处理网络请求的线程数
num.network.threads=3
# 处理磁盘I/O的线程数
num.io.threads=8
# socket server的发送buffer大小 (SO_SNDBUF) 
socket.send.buffer.bytes=102400
# socket server的接收buffer大小 (SO_RCVBUF)
socket.receive.buffer.bytes=102400
#一个请求的最大size,用来保护防止oom
socket.request.max.bytes=104857600
############################# Log Basics #############################
#存放日志和消息的目录,可以是用逗号分开的目录,同样不推荐使用/tmp
log.dirs=/usr/local/services/kafka/kafka-logs
#每个topic默认partitions的数量,数量较大表示消费者可以有更大的并行度。
num.partitions=2
# The number of threads per data directory to be used for log recovery at startup and flushing at shutdown.
# This value is recommended to be increased for installations with data dirs located in RAID array.
num.recovery.threads.per.data.dir=1
#日志的过期时间,超过后被删除,单位小时
log.retention.hours=168
#一个日志文件最大大小,超过会新建一个文件
log.segment.bytes=1073741824
#根据过期策略检查过期文件的时间间隔,单位毫秒
log.retention.check.interval.ms=300000
############################# Zookeeper #############################
#Zookeeper的连接配置,用逗号隔开,也可以用172.23.8.59:2181/kakfa这样的方式指定kafka数据在zk中的根目录
zookeeper.connect=172.23.8.144:2181,172.23.8.179:2181,172.23.8.59:2181
# 连接zk的超时时间
zookeeper.connection.timeout.ms=6000#####
##### Server Basics ### ###### ###### ###### ###### ## # 唯一标识一个broker. broker.id= 1 ###### ###### ###### ###### ##### Socket Server Settings ### ###### ###### ###### ###### ## #绑定服务监听的地址和端口,要填写hostname -i 出来的地址,否则可能会绑定到127.0.0.1,producer可能会发不出消息 listeners= PLAINTEXT : // 172.23 .8 .144 : 9092 #broker对producers和consumers服务的地址和端口,如果没有配置,使用listeners的配置,本文没有配置该项 #advertised.listeners=PLAINTEXT://your.host.name:9092 # 处理网络请求的线程数 num.network.threads= 3 # 处理磁盘I/O的线程数 num.io.threads= 8 # socket server的发送buffer大小 (SO_SNDBUF) socket.send.buffer.bytes= 102400 # socket server的接收buffer大小 (SO_RCVBUF) socket.receive.buffer.bytes= 102400 #一个请求的最大size,用来保护防止oom socket.request.max.bytes= 104857600 ###### ###### ###### ###### ##### Log Basics ### ###### ###### ###### ###### ## #存放日志和消息的目录,可以是用逗号分开的目录,同样不推荐使用/tmp log.dirs=/usr/local/services/kafka/kafka-logs #每个topic默认partitions的数量,数量较大表示消费者可以有更大的并行度。 num.partitions= 2 # The number of threads per data directory to be used for log recovery at startup and flushing at shutdown. # This value is recommended to be increased for installations with data dirs located in RAID array. num.recovery.threads.per.data.dir= 1 #日志的过期时间,超过后被删除,单位小时 log.retention.hours= 168 #一个日志文件最大大小,超过会新建一个文件 log.segment.bytes= 1073741824 #根据过期策略检查过期文件的时间间隔,单位毫秒 log.retention.check.interval.ms= 300000 ###### ###### ###### ###### ##### Zookeeper ### ###### ###### ###### ###### ## #Zookeeper的连接配置,用逗号隔开,也可以用172.23.8.59:2181/kakfa这样的方式指定kafka数据在zk中的根目录 zookeeper.connect= 172.23 .8 .144 : 2181 , 172.23 .8 .179 : 2181 , 172.23 .8 .59 : 2181 # 连接zk的超时时间 zookeeper.connection.timeout.ms= 6000
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值