kafka server.properties 配置文件详解

1.Broker.id
        broker.id=2  一般采用ip的后三位来用来标识是哪台kafka的broker,利于定位和排错
    2.Prot
        tcp用来监控的kafka端口
        listeners=PLAINTEXT://192.168.43.17:9092
    3.Zookeeper.connect
        #kafka连接zk的集群,多个用”,”号隔开
    zookeeper.connect=192.168.43.15:2181,192.168.43.16:2181,192.168.43.17:2181
    #这样写不是很友好,kafka在连上zk后,直接在zk的根目录创建自己需要的文件夹,这样会导致如果有别的项目也在用zk,会导致zk的根目录下特别的乱,kafka会产生一个controller的文件夹,如果别的项目也有controller会导致冲突和混淆,所以推荐以下用法:
    推荐使用:
    zookeeper.connect=192.168.43.15:2181/kafka,192.168.43.16:2181/kafka,192.168.43.17:2181/kafka
    4.Log.dirs(commit log)
        #用来存储日志的路径,它上面存放了多个log segment,如果采用了磁盘阵列,路径可以是多个,    #如果采用了多个存储路径,1个partition只能存放在1个路径下,因为顺序的磁盘读写操作速度    #可以接近随机的内存读写速度
        log.dirs=/var/lib/kafka
    5.num.recovery.threads.per.data.dir=1
        #kafka配置了1个线程池,当kafka启动时打开每个segment,启动失败时检查并截取每个segments
        #服务关闭时,关闭segments的句柄、管道的flush操作,
        num.recovery.threads.per.data.dir=1
    #注意是1个路径默认是1个线程,如果log.dirs配置了3个路径,那么将会有24个线程
    6.auto crteat.topics.enable(配置文件中没有)
        #自动创建1个topic
        #当不存在1个topic时会创建,读的时候会创建1个topic,通过api访问元数据时,如果不存在会创建1个topic
        #但是这个创建的tpoic都是采用默认的配置,因此不建议使用
        # 一般情况下我们设置成false
    7.num.partitions
        #设置partitions 的个数
        num.partitions=1
    8.log.retention.ms
        #日志存放时间,依据是文件最后1次更新文件的时间,这个参数是针对broker的
        log.retention.hours=168                #存放1个星期
    9.log.retention.bytes
        #partition保留数据的大小,这个参数是针对1个partitions 的
        #如果有8个partition,每个partition设置的是1GB,那最多存8GB的东西,超过了就会将老的数据删除
        log.retention.bytes=1073741824
    10.log.segment.bytes
        #设置segment 片断的大小,如果存放的达到了设置的大小,这个segment 将会关闭,并且将会    #创建1个新的打开的segment,如果1个segment达到了设置的大小并且已关闭,那么这个    #segment是可以被删除的,如果这个segment设置的小,则会频繁的创建segment,会影响kafka    #的性能,如果设置的较大,超过了log.retention.ms的保存时间,这样会造成数据不一致或丢失    #的情况,因此,设置每个segment的大小还是要根据业务量来判断
    log.segment.bytes=1073741824
    11.log.segment.ms(没明白)
        #另一种控制segments关闭的参数设置
        log.segment.ms
    12.message.max.bytes
        #发送信息的最大单位值,如果超过了,会造成数据丢失
        #如果要发送的数据量较大,可以调整这个参数和检查发送数据量的
        message.max.bytes=1024

 

转载于:https://www.cnblogs.com/MrRightZhao/p/11094680.html

application.propertieskafka配置可以根据需要进行设置。以下是一些常见的配置参数及其说明: 1. broker.id:Kafka服务器的唯一标识符,集群模式下必须唯一且不可更改。 2. listeners:Kafka服务器的监听地址和端口。 3. log.dirs:Kafka消息存储的文件路径,可以配置多个路径,Kafka会选择拥有最少数据分区的路径进行存储。 4. num.recovery.threads.per.data.dir:启动或关闭Kafka时,日志需要启动或恢复的线程数量。 5. num.network.threads:处理网络请求的最大线程数。 6. num.io.threads:处理磁盘I/O的线程数。 7. background.threads:后台线程数。 8. queued.max.requests:等待IO线程处理的请求队列最大数。 9. socket.send.buffer.bytes:socket的发送缓冲区大小。 10. socket.receive.buffer.bytes:socket的接收缓冲区大小。 11. socket.request.max.bytes:socket请求的最大字节数。 12. num.partitions:每个topic的分区个数。 13. auto.create.topics.enable:是否允许自动创建topic。 14. default.replication.factor:一个topic默认分区的副本个数。 15. message.max.bytes:消息体的最大大小。 以上是一些常见的Kafka配置参数,可以根据实际需求进行配置。 #### 引用[.reference_title] - *1* [apache kafka系列之server.properties配置文件参数说明](https://blog.csdn.net/lizhitao/article/details/25667831)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [02-Kafkaserver.properties核心配置详解](https://blog.csdn.net/qq_39234967/article/details/126451936)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值