logstash 吞吐量优化_logstash吞吐率优化

本文讲述了在遇到kibana日志传输延迟时,如何通过调整logstash的配置参数优化其吞吐量。通过增加`pipeline.workers`和`pipeline.output.workers`至CPU核心数,以及增大`pipeline.batch.size`和调整`pipeline.batch.delay`,成功将ES的吞吐量从9817/s提升到41183/s。此外,还解决了由于ES bulk线程池繁忙导致的429错误,通过增大`pipeline.batch.size`缓解了这个问题,并建议根据数据量测试找到最佳配置值。
摘要由CSDN通过智能技术生成

问题一

最近发现kibana的日志传的很慢,常常查不到日志,由于所有的日志收集都只传输到了一个logstash进行收集和过滤,于是怀疑是否是由于logstash的吞吐量存在瓶颈。一看,还真是到了瓶颈。

优化过程

经过查询logstash完整配置文件,有几个参数需要调整

1

2

3

4

5

6

7

8# pipeline线程数,官方建议是等于CPU内核数

pipeline.workers: 24

# 实际output时的线程数

pipeline.output.workers: 24

# 每次发送的事件数

pipeline.batch.size: 3000

# 发送延时

pipeline.batch.delay: 5

PS:由于我们的ES集群数据量较大(>28T),所以具体配置数值视自身生产环境

优化结果

ES的吞吐由每秒9817/s提升到41183/s,具体可以通过x-pack的monitor查看。

问题二

在查看logstash日志过程中,我们看到了大量的以下报错

1

2[2017-03-18T09:46:21,043][INFO][logstash.outputs.elasticsearch] retrying failed action with response code: 429 ({"type"=>"es_rejected_execution_exception", "reason"=>"rejected execution of org.elas

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值