Elasticsearch 请求报错 Data too large

最近在使用公司Elasticseach 7.3.1时,经常报出以下错误,环境时好时坏: 

"[circuit_breaking_exception] [parent] Data too large, data for [<http_request>] would be [2052417488/1.9gb], which is larger than the limit of [2040109465/1.8gb], real usage: [2052417488/1.9gb], new bytes reserved: [0/0b], usages [request=144/144b, fielddata=3777512/3.6mb, in_flight_requests=0/0b, accounting=5296757/5mb], with { bytes_wanted=2052417488 & bytes_limit=2040109465 & durability=\"PERMANENT\" }"

直观原因: 分配给ES的堆内存不够用了。

分析: 向ES写入数据时,大致分为以下4个步骤:

        1. 数据写入到buffer中。

        2. 每隔一段时间 (可以在settings中通过refresh_interval手动设置值)刷新buffer,将数据组装并保存到index segment file(可以看作是一份File,只不过目前存储在内存中)

        3. index segment file在被创建后,会被立刻读取并写入到OS Cache中(此时数据就可以对客户端提供搜索服务了)。

        4. 默认每隔30分钟或translog过大时,ES会将当前内存中所有的index segment标记并形成一个commit point(类似git 的commit id),进行原子性的持久化操作,操作完毕后,删除本次已经已经了持久化的index segment,腾出内存空间。

所以我认为出现上述的情况是因为: buffer的刷新时间间隔过长或一次新增的数据量过大,导致数据堆集在buffer中,此外由于OSCache 默认30分钟会进行一次自动的flush,清空内存中的部分数据,因此ES会出现"时好时坏"的现象。

解决方案

方案一.增加分配给ES应用的内存 (验证通过)

   编辑 /opt/elasticsearch/config jvm.option,将-Xms和-Xmx 调大,初始值都是1G。修改配置后,需要重启ES才能生效。

方案二.清空缓存 (尚未验证)

   curl -XPOST -u admin:Admin@123 'http://xxx:9200/elasticsearch/_cache/clear?fielddata=true

方案三: GET /_flush  执行所有索引的flush操作

  • 5
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值