kafka日志保留时间设置无效问题

背景

看了网上很多文档,说是要设置log.retention.hour等等参数。
默认是保留7天,但我实测下来发现日志根本没有任何变化。
目前我们的kafka,一天就有400多个G,保留七天大大增加了我们的服务器成本。

不生效的设置

#设置日志只保留一个小时的
  "log.retention.hours": 1
#设置大于500M就自动删除
  "log.retention.bytes": "536870912"
#设置日志被标记删除后,保留多久彻底删除,1分钟
  "log.segment.delete.delay.ms": 60000
#设置多久扫描一次要清理的日志
  "log.cleanup.interval.mins": 3

kafka回收原理

kafka只会回收上个分片的数据

配置没有生效的原因就是,数据并没有分片,所以没有回收

kafka什么时候分片?有个参数log.roll.hours

log.roll.hours 设置多久滚动一次,滚动也就是之前的数据就会分片分出去
segment.bytes 设置日志文件到了多大就会自动分片

总结

  "log.retention.hours": 1
  "log.cleanup.policy": "delete"
  "log.retention.bytes": "536870912"
  "log.segment.delete.delay.ms": 60000
  "log.cleanup.interval.mins": 3
  "log.roll.hours": 1
  "segment.bytes": "536870913"
  "log.retention.check.interval.ms": 120000
  "retention.ms": "3600000"
  "retention.bytes": "536870912"

建议
log.roll.hours
retention.ms
log.retention.hours
设置的时间相同

参考文档

https://www.cnblogs.com/skycandy/p/11402214.html
https://kafka.apache.org/documentation/#brokerconfigs

  • 4
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
通常,日志被分散的储存不同的设备上。如果你管理数十上百台服务器,你还在使用依次登录每台机器的传统方法查阅日志。这样是不是感觉很繁琐和效率低下。开源实时日志分析ELK平台能够完美的解决日志收集和日志检索、分析的问题,ELK就是指ElasticSearch、Logstash和Kiabana三个开源工具。 因为ELK是可以跨平台部署,因此非常适用于多平台部署的应用。 二 环境准备 1. 安装JDK1.8环境 2. 下载ELK软件包 logstash: https://artifacts.elastic.co/downloads/logstash/logstash-5.5.0.zip elasticsearch:https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-5.5.0.zip kibana: https://artifacts.elastic.co/downloads/kibana/kibana-5.5.0-windows-x86.zip 分别解压下载的软件,elasticsearch,logstash,kibana 可以放在一个统一文件夹下 三 部署 1.配置logstash 在logstash文件夹的下bin目录创建配置文件logstash.conf ,内容如下: input { # 以文件作为来源 file { # 日志文件路径 path => "F:\test\dp.log" } } filter { #定义数据的格式,正则解析日志(根据实际需要对日志日志过滤、收集) grok { match => { "message" => "%{IPV4:clientIP}|%{GREEDYDATA:request}|%{NUMBER:duration}"} } #根据需要对数据的类型转换 mutate { convert => { "duration" => "integer" }} } # 定义输出 output { elasticsearch { hosts => ["localhost:9200"] #Elasticsearch 默认端口 } }   在bin目录下创建run.bat,写入一下脚本: logstash.bat -f logstash.conf 执行run.bat启动logstash。 2. 配置Elasticsearch elasticsearch.bat即可启动。 启动后浏览器访问 127.0.0.1:9200 ,出现以下的json表示成功。 3.配置kibana Kibana启动时从文件kibana.yml读取属性。默认设置配置Kibana运行localhost:5601。要更改主机或端口号,或者连接到在其他机器上运行的Elasticsearch,需要更新kibana.yml文件。 kibana.bat启动Kibana。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值