es常规通用优化参数

1.doc values
   相比于倒排索引(通关过关键字查找文档),doc values可以  直接来理解为“正排索引”(通过文档  ,查找关键字)
   doc values应用场景:
   1.针对某field的排序(sort);
   2.针对某filed的聚合(aggregation)
   3.特定的过滤(举例;geo过滤)
   4.针对特定字段的script操作
2.norms
   norms是索引的评分因子
   如果不关心评分,例如,如果从未按分数对文档进行排序,则可以禁用在索引中存储这些评分因子并节省一些空间 
   PUT index
    {
      "mappings": {
        "type": {
          "properties": {
            "foo": {
              "type": "text",
              "norms": false
            }
          }
        }
      }
    }
3.不要返回大结果数据集
     Elasticsearch被设计为搜索引擎 ,这使得它非常擅长获取与查询匹配的排名靠前的Top文档。但是,它对于数据库域的工作负载来说并不好,例如检索与特定查询的所有文档。如果需要检索全部文档,请确保使用Scroll API。  

     1)业务开发中,我们有时候需要返回分页查询数据,建议使用from+size分页实现; 
     {
    "from" : 0, "size" : 10,
    "query" : {
        "term" : { "user" : "kimchy" }
    }
    }
     2)如果需要返回全量数据,建议使用scroll实现。
     curl -XGET 'localhost:9200/twitter/tweet/_search?scroll=1m' -d '
     {
         "query": {
             "match" : {
                 "title" : "elasticsearch"
             }
         }
     }
     '
4.避免使用大文件
     鉴于默认的http.max_context_length设置为100MB,Elasticsearch将拒绝索引任何大于该文档的文档。您可能决定增加该特定设置,但Lucene仍然有大约2GB的限制。
     即使不考虑硬性指标限制,大型文档通常也不实用。大型文档对网络,内存使用和磁盘施加更多压力,即使对于不请求_source的搜索请求也是如此,因为Elasticsearch需要在所有情况下获取文档的_id,并且对于大型文档而言,获取此字段的成本更高(归因于文件系统缓存工作)。
     索引大文档将使用数倍于原始文档大小的内存,全文搜索(例如match_phrase短语查询)和高亮显示也变得更占据内存呢、更耗时,因为它们的成本直接取决于原始文档的大小。
     有时候需要重新考虑信息单元什么时候是有用的。例如,您想要对图书做全文检索,并不一定意味着一个文档(document)对应一整本书。将章节甚至段落用作document可能是一个更好的主意,然后在这些文档中有一个属性来标识它们所属的书。 
     这不仅避免了大文档的问题,也使搜索体验更好。例如,如果用户搜索两个单词foo和bar,则不同章节之间的匹配可能非常差,而同一段落中的匹配可能很好。

     平时的业务场景可能遇不到单文档几百MB甚至几GB的场景,但是,在有些知识库全文检索的业务中,可能遇到《康熙字典》等类似大文档或其他网络采集大文档数据的检索。
     需要两点注意: 
     1)导入ES前,按照章节或者页码进行拆分; 
     2)设计ES Mapping的时候,采用fvh的高亮模式。
      fast-vector-highlighter 简称fvh高亮方式。
     如果在mapping中的text类型字段下添加了如下信息:
     "type": "text",
     "term_vector" : "with_positions_offsets"
     fvh高亮方式将取代传统的plain高亮方式。
         fvh高亮方式的特点如下: 
         1)当文件>1MB(大文件)时候,尤其适合fvh高亮方式。 
         2)自定义为 boundary_scanner的扫描方式。 
         3) 设定了 term_vector to with_positions_offsets会增加索引的大小。 
         4)能联合多字段匹配返回一个结果,详见matched_fields。 
         5)对于不同的匹配类型分配不同的权重,如:pharse匹配比term匹配高。 
         举例:
         PUT /example
         {
           "mappings": {
             "doc" : {
               "properties": {
                 "comment" : {
                   "type": "text",
                   "term_vector" : "with_positions_offsets"
                 }
               }
             }
           }
         }
         最终选型:fvh高亮方式。首先:新建了索引,按照fvh的方式对content字段新设置了mapping;其次通过如下方式进行索引数据同步:
         
         POST /_reindex
         {
           "source": {
             "index": "test_index"
           },
           "dest": {
             "index": "test_index_new"
           }
         }
         实践结果表明,同样的大文件,原本检索>40S,现在2S之内返回结果。 
         没有改一行代码,只修改了mapping,效率提升了近20倍。

5.避免稀疏性
     Lucene背后的数据结构,也是Elasticsearch依赖的索引和存储数据,最适合密集数据。举例:当所有文件都有相同的字段时,对于启用了norms(默认情况下是text文本字段的情况)或启用了doc vlaue(默认情况下是数字,日期,IP和关键字的情况),尤其如此。
     原因是Lucene在内部识别带有所谓docID的文档,这些docId是介于0和索引中的文档总数之间的整数。这些doc ids用于Lucene的内部API之间的通信:例如,对某个单元有matchquery的单元上搜索会生成一连串的doc ids,然后这些doc ids用于检索norm的值以便计算对于这些文档进行评分。   
     当前实现此norm查找的方式是为每个文档保留一个字节。然后,可以通过读取索引doc_id处的字节来检索给定doc id的标准值。虽然这非常有效并且有助于Lucene快速访问每个文档的标准值,但这样做的缺点是没有值的文档也需要一个字节的存储空间。
     请注意,即使稀疏性最显着的影响是存储要求,它也会对索引速度和搜索速度产生影响,因为没有字段的文档的这些字节仍需要在索引时写入并在搜索时花费时间。
     在索引中包含少数稀疏字段是完全没问题的。 但要注意,如果稀疏性成为规则而不是异常,那么索引将不会像它那样有效。
     本节主要关注norms 和doc values,因为这些是受稀疏性影响最大的两个特征。 稀疏性也影响倒排索引(用于索引text/keyword字段)和维度点(用于索引geo_point和numerics类型)的效率,但程度较小。

     以下是一些有助于避免稀疏性的建议:
     5.1避免将不相关的数据放在同一个索引
     您应该避免将具有完全不同结构的文档放入同一索引中以避免稀疏性。 将这些文档放入不同的索引通常会更好,您还可以考虑为这些较小的索引提供较少的分片,因为它们总体上包含的文档较少。
     请注意,此建议不适用于您需要在文档之间使用父/子关系的情况,因为此功能仅在位于同一索引中的文档上受支持。
     5.2规范化文档结构
     即使你真的需要在同一个索引中放入不同类型的文档,也许有机会减少稀疏性。 例如,如果索引中的所有文档都有一个时间戳字段,但有些文档称之为timestamp,而其他文档称之为creation_date,则有助于重命名它,以便所有文档对同一数据具有相同的字段名称。
     5.3避免使用types
     类型可能听起来像是在单个索引中存储多种类型数据(意译)的好方法。 其实它们不是!假设types将所有内容存储在单个索引中,基于上述稀疏性的讨论,在单个索引中具有不同字段的多个类型会有问题。
     如果您的type没有非常相似的Mappings,您可能需要考虑将它们移动到专用索引。 
     5.4在稀疏字段上禁用norms和doc_values
     如果上述建议均不适用于您的情况,您可能需要检查在稀疏字段中是否确实需要norms和doc_values。 如果在字段上不需要生成计算分数,则可以禁用norms,对于仅用于过滤的字段通常也是如此。 可以在既不用于排序也不用于聚合的字段上禁用doc_values。 请注意,不应轻易做出这个决定,因为这些参数不能在实时索引上更改,因此如果您意识到需要norms或doc_values,则必须重新reindex索引。
     注:
     1)6.X以后就不存在一个索引多个type了,一个索引下只有唯一的type了。所以:5.X版本之前的多type要变成多索引。 
     2)创建索引的时候,Mapping的设计非常重要,各个字段的细分设计一方面决定了存储,另一方面:不同字段类型的设计会对性能产生非常重要的影响。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值