[原创] 记一次 ElasticSearch 问题查找 - 数据同步非常慢

开始是三个节点组成的集群, 后加了两台. 但是同步数据变的非常慢.
追查问题后发现是 ulimit 配置不当导致.

$ curl 192.168.3.48:9200/_nodes/stats/process?filter_path=**.max_file_descriptors
{
    "nodes": {
        "bf79DOwKQ4GJxJcsIaFDqQ": {
            "process": {
                "max_file_descriptors": 655360
            }
        },
        "OU7A1WPBSUuZ8QooWmkyRQ": {
            "process": {
                "max_file_descriptors": 655360
            }
        },
        "DrUpoM8TRoarg0XiGcMP_A": {
            "process": {
                "max_file_descriptors": 65536
            }
        },
        "KMVIqfNgSty0pdJhoHlZeg": {
            "process": {
                "max_file_descriptors": 655360
            }
        },
        "Wa8LvscDT5KjrhyNfTfwXQ": {
            "process": {
                "max_file_descriptors": 65536
            }
        }
    }
}

其中三台是655360, 两台新加的机器是65536.

修改 /etc/security/limits.conf 文件.

es - nproc 655360
es - nofile 655360
# es 是用户名

修改之后重启 es 服务, 再查看

{
    "nodes": {
        "OU7A1WPBSUuZ8QooWmkyRQ": {
            "process": {
                "max_file_descriptors": 655360
            }
        },
        "KMVIqfNgSty0pdJhoHlZeg": {
            "process": {
                "max_file_descriptors": 655360
            }
        },
        "bf79DOwKQ4GJxJcsIaFDqQ": {
            "process": {
                "max_file_descriptors": 655360
            }
        },
        "DrUpoM8TRoarg0XiGcMP_A": {
            "process": {
                "max_file_descriptors": 655360
            }
        },
        "Wa8LvscDT5KjrhyNfTfwXQ": {
            "process": {
                "max_file_descriptors": 655360
            }
        }
    }
}

节点的文件最大句柄数已经一样.

ps aux|grep elastic;ps aux |grep elasticsearch|awk ‘{print “kill “$2}’ | bash; ps aux|grep elastic

cd /usr/local/elasticsearch/ && ./bin/elasticsearch -d -s

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值