海量数据检索查询性能优化思路

  1. 数据预热


    回放线上流量,进行数据的预加载到内存中去 (tcpcopy   tcpdump   回放机器、辅助机器)

  2. 冷热分离   


    热数据尽量都放在内存中,这样提高数据的响应时间

  3. 模型设计

    写入索引的时候,就将关联的数据直接写入进去,不要在搜索的时候进行join,因为ES中的复杂查询都很耗费性能。就像mysql外键类似的情况需要禁止

  4. 分页查询

    分布式的,查100页的10条数据,必须从每个shard,都查询一批数据过来,然后拿过来在内存里面分页,页翻得越深,基本查询性能很差。优化策略:1.不允许深度分页 2.类似于下拉分页的话,可以使用 scroll api 进行查询。它的分页原理,会一次性生成快照,然后通过游标一次一次往下翻,无论翻多少页,性能就是毫秒级的,scroll 智能一页一页往后翻,天然适合微博,往下拉的时候。

      curl -XGET 'localhost:9200/twitter/tweet/_search?scroll=1m' -d '
       {
            "query": {
                 "match" : {
                 "title" : "elasticsearch"
              }
           }
        }
    
    该查询会自动返回一个_scroll_id,通过这个id(经过base64编码)可以继续查询
    
    curl -XGET  '*.*.*.*:9200/_search/scroll?scroll=1m&scroll_id=DXF1ZXJ5QW5kRmV0Y2gBAAAAAAEcfmIWUzlwTW9leWlTM0dVQ2dTZldCUmJtZw=='

    备注: scroll=1m(保持活动1分钟)  后面所有页都是同一个参数值scroll_id 保持不变

  5. 将不是筛选条件,排序条件的字段 勿加入索引字段中去。由调用模块自己去查询 
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值