ElasticSearch结果集过大处理方案-关于from、size错误的思考

一、问题描述 

       在一次使用查询中,知道结果集很大,使用了from、size的方案进行轮训查询,结果在from + size > 10000时报错:

get tid once, from:0, size:100
get tid once, from:100, size:100
get tid once, from:200, size:100
get tid once, from:300, size:100
                       ......
get tid once, from:9700, size:100
get tid once, from:9800, size:100
get tid once, from:9900, size:100
get tid once, from:10000, size:100
get need modify tid fail: es query fail:elastic: Error 500 (Internal Server Error): all shards failed [type=search_phase_execution_exception]

10000是es默认最大查询结果集的数量,由参数index.max_result_window控制。

二、原因分析

这跟我理解的不太一样了,我认为用from + size是一次取100,没有超过10000,看结果是from + size的数量不能超过10000,于是在命令行上测试了相关操作:

GET media_std_content_dispatch/_search
{
  "from": 10000,
  "size": 10
}

应答: 

{
    "error":{
        "root_cause":[
            {
                "type":"query_phase_execution_exception",
                "reason":"Result window is too large, from + size must be less than or equal to: [10000] but was [10010]. See the scroll api for a more efficient way to request large data sets. This limit can be set by changing the [index.max_result_window] index level setting."
            }
        ],
        "type":"search_phase_execution_exception",
        "reason":"all shards failed",
        "phase":"query",
        "grouped":true,
        "failed_shards":[
            {
                "shard":0,
                "index":"media_std_content_dispatch",
                "node":"UMQ0-vTxRQiXkR4vu8iyoQ",
                "reason":{
                    "type":"query_phase_execution_exception",
                    "reason":"Result window is too large, from + size must be less than or equal to: [10000] but was [10010]. See the scroll api for a more efficient way to request large data sets. This limit can be set by changing the [index.max_result_window] index level setting."
                }
            }
        ]
    },
    "status":500
}

 查看了源码,发现from、size的方式在from + size > maxResultWindow时会报错,具体参考:

server/src/main/java/org/elasticsearch/search/DefaultSearchContext.java

   /**
     * Should be called before executing the main query and after all other parameters have been set.
     */
    @Override
    public void preProcess() {
        if (hasOnlySuggest()) {
            return;
        }
        long from = from() == -1 ? 0 : from();
        long size = size() == -1 ? 10 : size();
        long resultWindow = from + size;
        int maxResultWindow = indexService.getIndexSettings().getMaxResultWindow();

        if (resultWindow > maxResultWindow) {
            if (scrollContext() == null) {
                throw new IllegalArgumentException(
                    "Result window is too large, from + size must be less than or equal to: ["
                        + maxResultWindow
                        + "] but was ["
                        + resultWindow
                        + "]. See the scroll api for a more efficient way to request large data sets. "
                        + "This limit can be set by changing the ["
                        + IndexSettings.MAX_RESULT_WINDOW_SETTING.getKey()
                        + "] index level setting."
                );
            }
            ......
        }
        ......
  
    }

三、解决办法

1、扩大max_result_window

        把max_result_window扩大到比结果集还大,就能用from、size的方式循环取结果,或者用普通查询方式一次把结果取出来。

        from、size的方式是从每个shard上先取from + size条数据,然后发送到请求节点上,请求节点进行合并排序,取出需要的部分;例如1000个shard,from = 990,size = 10,那么每个shard就要取1000条数据,总共100万条数据发送到请求节点,请求节点对这100万条数据进行排序,然后取出排序后的991 - 1000共10条数据;这种操作在带宽、计算性能和存储等方面都有很大的浪费,非常不建议这种做法。

        下面是这种方式的大概流程:

     

2、search_after方式 

        search_after是指定按一些字段排序,逐步往后走,可以类比mysql的order by limit操作:

        1、select fields from table order by id asc limit 10;

                记录下最后一条数据的id:last_id,用作下面的比较条件

        2、select fields from table where id > last_id order by id asc limit 10;

                记录下最后一条数据的id:last_id,用作后续的比较条件,循环步骤2

        具体操作方式如下:

DELETE test_index

// 写入测试数据
POST test_index/_bulk
{ "index":{} }
{ "name":"a","age":1 }
{ "index":{} }
{ "name":"b","age":2 }
{ "index":{} }
{ "name":"c","age":3 }
{ "index":{} }
{ "name":"d","age":4 }
{ "index":{} }
{ "name":"e","age":5 }
{ "index":{} }
{ "name":"f","age":6 }
{ "index":{} }
{ "name":"g","age":7 }


第一次请求
GET test_index/_search
{
  "size": 2, 
  "sort": [
    {
      "age": { // 比较字段的名称,按 age 升序排序
        "order": "asc"
      }
    }
  ]
}

返回结果,只保留主要的信息
{
    "hits":{
        "hits":[
            {
                "_source":{
                    "name":"a",
                    "age":1
                },
                "sort":[
                    1 // 这条数据对应排序字段的值
                ]
            },
            {
                "_source":{
                    "name":"b",
                    "age":2
                },
                "sort":[
                    2 // 这条数据对应排序字段的值
                ]
            }
        ]
    }
}

后续请求
GET test_index/_search
{
  "size": 2, 
  "search_after":[2], // 指定 sort 字段上次结果集中,最后一条结果的值;如果 sort 中有多个字段,只需要跟sort的顺序一致即可
  "sort": [
    {
      "age": {
        "order": "asc"
      }
    }
  ]
}

应答
{
    "hits":{
        "hits":[
            {
                "_source":{
                    "name":"c",
                    "age":3 // 接着 2 后面的数据
                },
                "sort":[
                    3
                ]
            },
            {
                "_source":{
                    "name":"d",
                    "age":4
                },
                "sort":[
                    4
                ]
            }
        ]
    }
}

        如果有多个字段,sort和search_after里面是多个字段的数组,顺序要对应,类似于mysql中多个字段的order by:

        select fields from table order by field_a asc, field_b desc limit 10;、

        这种方式,要取100个数据的话,首先在每个shard上,按sort字段查找100个数据,然后在请求节点上进行排序,取出需要的数据,这比from、size方法在带宽、内存和计算资源上都有不少的节省。

    

注意:

        这种方法有个地方要注意,它是按sort field的顺序往后找,假设开始数据中age = 1、3、5、7,当使用search_after方式查到age = 5时,插入了一条age = 2的数据,search_after这种方式是搜索不到新插入的数据,因为要搜索的是age > 5的数据,新数据不满足。

3、scroll方式

        scroll方式首先对查询结果生成快照,后续的操作都是针对这个快照进行的;因为是当时的快照,新数据不会包含在内,所以不能用于实时的操作。

        scroll方式只需要知道这个快照的id,叫scroll_id,就能循环获取后续数据

// 第一次请求,指定是 scroll 方式
GET test_index/_search?scroll=1m
{
  "size": 2
}

// 应答信息
{             
  "_scroll_id":"DXF1ZXJ5QW5kRmV0Y2gBAAAAAQEPczgWVU1RMC12VHhSUWlYa1I0dnU4aXlvUQ==",
    "hits":{
        "total":7,
        "hits":[
            {
                "_source":{
                    "name":"a",
                    "age":1
                }
            },
            {
                "_source":{
                    "name":"b",
                    "age":2
                }
            }
        ]
    }
}

// 后续请求
GET /_search/scroll
{
    "scroll" : "1m",
  "scroll_id" : "DXF1ZXJ5QW5kRmV0Y2gBAAAAAQEPczgWVU1RMC12VHhSUWlYa1I0dnU4aXlvUQ=="
}

// 后续应答
{
    "_scroll_id":"DXF1ZXJ5QW5kRmV0Y2gBAAAAAQEPczgWVU1RMC12VHhSUWlYa1I0dnU4aXlvUQ==",
    "hits":{
        "total":7,
        "hits":[
            {
                "_source":{
                    "name":"c",
                    "age":3
                }
            },
            {
                "_source":{
                    "name":"d",
                    "age":4
                }
            }
        ]
    }
}

        我们只需要知道第一次请求产生的快照id:_scroll_id = DXF1ZXJ5QW5kRmV0Y2gBAAAAAQEPczgWVU1RMC12VHhSUWlYa1I0dnU4aXlvUQ==,后续的请求都拿这个_scroll_id继续从这个快照里拿后续数据,个人猜测每个scroll快照里应该有个offset之类的信息,这样才能不断往后取数据。

        “GET test_index/_search?scroll=1m”请求中的scroll=1m表示这个scroll快照要保留1 minute,相当于快照的ttl,后面每次请求中的"scroll" : "1m"也是这个意思,表示再次设置该快照的ttl为1 minute;如果知道后续数据处理的越来越慢,可以逐渐调大这个scroll的保留时间,避免快照被超时销毁。

四、结论

        from、size的方式获取数据量不能超过max_result_window,也不建议调大这个参数,从效果和性能上看,scroll方式是获取大结果集的合适方式。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值