使用requests发请求操作Elasticsearch【一】

本文为博主原创,未经授权,严禁转载及使用。
本文链接:https://blog.csdn.net/zyooooxie/article/details/123730279

之前在测试环境查es数据,在用 Kibana;可下半年,因为某些原因 就不能用了。我就想着用代码来搞了。简单分享下。

【实际这篇博客推迟发布N个月】

个人博客:https://blog.csdn.net/zyooooxie

【以下所有内容仅为个人项目经历,如有不同,纯属正常】

Elasticsearch

Elasticsearch是一个开源的分布式搜索和分析引擎,用于存储、搜索和分析大量的数据。它是基于Apache Lucene库构建的,并提供了一个简单的RESTful API,使用户可以轻松地进行数据索引、搜索和分析。

Elasticsearch具有以下特点:

  1. 分布式架构:Elasticsearch可以水平扩展,将数据分布在多个节点上,实现高可用性和性能的提升。

  2. 实时搜索:Elasticsearch支持实时索引和搜索,可以在毫秒级别内返回搜索结果。

  3. 多种查询方式:Elasticsearch提供了丰富的查询语法和功能,包括全文搜索、精确匹配、范围查询等。

  4. 多种数据类型支持:Elasticsearch支持多种数据类型的索引和搜索,包括文本、数字、日期、地理位置等。

  5. 分布式数据存储:Elasticsearch使用分片和副本机制来存储数据,保证数据的可靠性和高可用性。

  6. 实时分析:Elasticsearch提供了强大的聚合功能,可以对数据进行实时的统计和分析。

  7. 可扩展性:Elasticsearch可以与其他工具和框架集成,如Logstash、Kibana等,实现全面的数据处理和可视化。

总之,Elasticsearch是一个功能强大、易于使用和可扩展的搜索和分析引擎,适用于各种应用场景,包括日志分析、电子商务、实时监控等。

Search APIs

https://www.elastic.co/guide/en/elasticsearch/reference/7.17/search.html

"""
@blog: https://blog.csdn.net/zyooooxie
@qq: 153132336
@email: zyooooxie@gmail.com
"""

import random
import time

import requests

from requests_toolbelt.utils import dump

from XXX.common_es import gl_es_auth, gl_es_host_new
from user_log import Log
from XXX.practice_es_2 import es_send_request

gl_fc_room = 'TESTM7eY-sPd4wxA'  # 被拆分成 多个token
gl_No_fc_room = 'TESTDbrMoRzVuuXg'

gl_index = 'ABC-data'
gl_type = '_doc'
gl_url = '/'.join([gl_es_host_new, gl_index, gl_type, '_search'])


# 返回结果中最重要的部分是 hits ,它包含 total 字段来表示匹配到的文档总数,并且一个 hits 数组包含所查询结果的前十个文档。
# 在 hits 数组中每个结果包含文档的 _index 、 _type 、 _id ,加上 _source 字段。这意味着我们可以直接从返回的搜索结果中使用整个文档。


# 在 Elasticsearch 中, 相关性得分 由一个浮点数进行表示,并在搜索结果中通过 _score 参数返回,默认排序是 _score 降序。
# _score ,它衡量了文档与查询的匹配程度。


# 如果不对某一特殊的索引或者类型做限制,就会搜索集群中的所有文档。Elasticsearch 转发搜索请求到每一个主分片或者副本分片,汇集查询出的前10个结果,并且返回给我们。


def test_Search_1():
    """
    query-string search 查询字符串
    :return:
    """
    # https://www.elastic.co/guide/en/elasticsearch/reference/7.17/search-search.html#search-search-api-query-params

    # GET /{index}/{type}/_search?q=XXX
    # 将查询本身赋值给参数 q=

    s1 = {'q': 'seq:5'}  # 返回 seq等于5 的所有文档
    s2 = {'q': '错对123'}  # 返回 包含 错对123 的所有文档(默认 十条)

    # Elasticsearch 接受 from 和 size 参数,size 显示应该返回的结果数量,默认是 10;from 显示应该跳过的初始结果数量,默认是 0
    s3 = {'q': 'text.content:对错123', 'size': 15, 'from': 10}

    s4 = {'q': 'text.content:(456 abc)', 'size': 15}  # 搜索 多个值

    s5 = {'q': 'seq:>99 text.content:错对无所谓'}  # 搜索 多个条件、值大于99

    # 使用 sort 参数 实现 按照字段的值排序
    s6 = {"size": 15, "from": 10, "sort": "seq:desc"}
    s7 = {"size": 15, "from": 10, "sort": "seq"}
    s8 = {"size": 15, "from": 10}

    s9 = {"q": "无所谓ABC", "size": 15, "sort": "seq"}  # 字段将会默认升序排序,而按照 _score 的值进行降序排序。

    Log.info('********')

    search_list = [s6, s7, s8, s9]
    # search_list = [s1, s2]
    # search_list = [s3, s4, s5]

    for s in search_list:
        # Basic认证
        res = requests.get(gl_url, auth=gl_es_auth, params=s)

        Log.info(dump.dump_all(res).decode('utf-8'))
        res.close()

        time.sleep(1)

        Log.error('🚀🚀🚀🚀🚀🚀🚀🚀🚀🚀🚀🚀')

    else:
        # 没有指定任何查询的空搜索
        res = requests.get(gl_url, auth=gl_es_auth)

        Log.info(dump.dump_all(res).decode('utf-8'))


def test_Search_2():
    """
    sort排序  分页
    :return:
    """
    # https://www.elastic.co/guide/en/elasticsearch/reference/7.17/search-search.html#search-search-api-request-body

    # 按照字段的值排序,可以使用 sort 参数进行实现;

    s11 = {'sort': 'seq'}  # query不传
    s12 = {'sort': {'seq': {'order': 'desc'}}}

    # wm61TEST
    s13 = {'query': {'match': {'from': 'wm61TEST'.lower()}},
           'sort': {'seq': {'order': 'asc'}}}
    s14 = {'query': {'match': {'from': 'wm61TEST'.lower()}},
           'sort': {'seq': {'order': 'desc'}}}

    # 多级排序
    # 返回结果 首先按第一个条件排序,仅当结果集的第一个 sort 值完全相同时才会按照第二个条件进行排序,以此类推。
    s15 = {'sort': [{'msgTime': {"order": "desc"}}, {'seq': {"order": "asc"}}]}

    # 在每个结果中 有一个新的名为 sort 的元素,它包含了我们用于排序的值。
    # 其次 _score 和 max_score 字段都是 null 。 _score 不被计算, 因为它并没有用于排序。

    Log.info('********')

    # 使用 from 和 size 参数来分页
    s21 = {'size': 15, 'from': 10}
    s22 = {'query': {'match': {'from': 'wm61TEST'.lower()}}, 'size': 15, 'from': 10}
    s23 = {'size': 15, 'from': 10, 'sort': 'seq'}
    s24 = {'size': 15, 'from': 10, 'sort': {'seq': {"order": "desc"}},
           'query': {'regexp': {'from': 'wm61TEST.+'.lower()}}}

    Log.info('********')

    # search_list = [s11, s12, s13, s14]
    # search_list = [s15]
    search_list = [s21, s22, s23, s24]

    for sl in search_list:
        search_send_get_post(url=gl_url, auth=gl_es_auth, json_data=sl)


# https://www.elastic.co/guide/en/elasticsearch/reference/7.17/search-search.html
# https://www.elastic.co/guide/en/elasticsearch/reference/7.17/query-dsl.html
def test_query_1():
    """
    空查询 match_all   match   term
    :return:
    """

    s0 = {}  # 空查询

    Log.info('********')

    # 查询表达式(Query DSL)
    # 只需将查询语句传递给 query 参数

    # GET /_search
    # {
    #     "query": YOUR_QUERY_HERE
    # }

    # 查询语句(Query clauses) 可以是如下形式:

    # 1.叶子语句(Leaf clauses) (就像 match 语句) 被用于将查询字符串和一个字段(或者多个字段)对比。
    # {
    #     QUERY_NAME: {
    #         ARGUMENT: VALUE,
    #         ARGUMENT: VALUE,...
    #     }
    # }

    # 2.复合(Compound) 语句 主要用于 合并其它查询语句。 比如,一个 bool 语句 允许在你需要的时候组合其它语句,
    # 无论是 must 匹配、 must_not 匹配还是 should 匹配,同时它可以包含不评分的过滤器(filters)

    Log.info('********')

    # match_all 查询简单的匹配所有文档

    s1 = {'query': {'match_all': {}}}

    Log.info('********')

    # match 查询

    # 如果在一个精确值的字段上使用它,例如数字、日期、布尔或者一个 not_analyzed的字符串字段,那么它将会精确匹配给定的值;
    # 如果你在一个全文字段上使用 match 查询,在执行查询前,它将用正确的分析器去分析 查询字符串;

    s11 = {'query': {"match": {"seq": 5}}}
    s12 = {'query': {"match": {"msgTime": 1702883838000}}}

    s13 = {'query': {"match": {"roomId": gl_fc_room}}}
    s14 = {'query': {"match": {"roomId": gl_No_fc_room}}}

    Log.info('********')

    # term 查询

    # term 查询被用于精确值匹配,这些精确值可能是数字、时间、布尔或者那些 not_analyzed 的字符串;
    # term 查询对于输入的文本不 分析 ,所以它将给定的值进行精确查询。

    s21 = {'query': {"term": {"seq": 5}}}  # 'seq': {'type': 'long'}
    s22 = {'query': {"term": {"msgTime": 1702883838000}}}  # 'msgTime': {'type': 'float'}

    s23 = {'query': {"term": {"roomId": gl_fc_room}}}
    s24 = {'query': {"term": {"roomId": gl_No_fc_room}}}

    Log.info('********')

    # Avoid using the term query for text fields.
    # To search text field values, use the match query instead.

    # To better search text fields, the match query also analyzes your provided search term before performing a search. This means the match query can search text fields for analyzed tokens rather than an exact term.

    s25 = {'query': {"term": {"roomId.keyword": gl_fc_room}}}
    s26 = {'query': {"term": {"roomId.keyword": gl_No_fc_room}}}

    Log.info('********')

    # wrcIqjVAAAXbgIHkkXtestAuO-cTEST
    test_1 = {'query': {"match": {"roomId": 'wrciqjvaaaxbgihkkxtestauo'}}}
    test_2 = {'query': {"match": {"roomId": 'wrcIqjVAAAXbgIHkkXtestAuO'}}}

    test_3 = {'query': {"term": {"roomId": 'wrciqjvaaaxbgihkkxtestauo'}}}
    test_4 = {'query': {"term": {"roomId": 'wrcIqjVAAAXbgIHkkXtestAuO'}}}

    Log.info('********')

    search_list = [s21, s22, s23, s24, s25, s26]
    # search_list = [s0, s1]
    # search_list = [s11, s12, s13, s14]
    search_list = [test_1, test_2, test_3, test_4]

    for sl in search_list:
        search_send_get_post(url=gl_url, auth=gl_es_auth, json_data=sl)


def test_query_2():
    """
    range   terms   constant_score
    :return:
    """

    # range 查询
    # 找出那些落在指定区间内的数字或者时间。
    # Returns documents that contain terms within a provided range.

    # 被允许的操作符如下:
    # gt 大于
    # gte 大于等于
    # lt 小于
    # lte 小于等于

    s11 = {'query': {"range": {"seq": {'lt': 22}}}}

    # 处理日期字段时, range 查询支持对 日期计算(date math) 进行操作
    # https://www.elastic.co/guide/en/elasticsearch/reference/7.17/query-dsl-range-query.html#ranges-on-dates
    s12 = {'query': {'range': {'ABC': {'lt': 'now-10h'}}}}
    s13 = {'query': {'range': {'ABC': {'lt': '2023-10-10 00:00:00', "gte": "2020-01-01T00:00:00"}}}}
    s14 = {'query': {'range': {'ABC': {'lt': '2023-10-10 00:00:00||+1M'}}}}  # 在某个日期后加上一个双管符号 (||) 并紧跟一个日期数学表达式

    Log.info('********')

    # terms 查询
    # Returns documents that contain one or more exact terms in a provided field.

    # terms 查询 允许你指定多值进行匹配。如果这个字段包含了指定值中的任何一个值,那么这个文档满足条件;

    # 和 term 查询一样,terms 查询对于输入的文本不分析。它查询那些精确匹配的值(包括在大小写、重音、空格等方面的差异)。

    s21 = {'query': {'terms': {'seq': [10, 20, 30]}}}
    s22 = {'query': {'terms': {'text.content': ['123', 'abcDE', '你好']}}}

    Log.info('********')

    # constant_score 查询
    # 通常当查找一个精确值的时候,我们不希望对查询进行评分计算。只希望对文档进行包括或排除的计算,可以用 constant_score  来取代只有 filter 语句的 bool 查询

    s30 = {'query': {'term': {'seq': 5}}}
    s31 = {'query': {'bool': {'filter': {'term': {'seq': 5}}}}}
    s32 = {'query': {'constant_score': {'filter': {'term': {'seq': 5}}}}}

    # 将让所有文档 用 一个恒定分数(默认为 1 )
    s33 = {'query': {'constant_score': {'filter': {'terms': {'seq': [5, 15, 25, 35]}}}}}
    s34 = {'query': {'constant_score': {'filter': {'range': {'seq': {'gt': 22}}}}}}

    Log.info('********')

    search_list = [s30, s31, s32, s33, s34]
    # search_list = [s21, s22]
    # search_list = [s11]

    for sl in search_list:
        search_send_get_post(url=gl_url, auth=gl_es_auth, json_data=sl)


def test_query_3():
    """
    match_phrase    multi_match     match的多词查询
    :return:
    """

    # 短语匹配 [彼此邻近搜索词]
    # The match_phrase query analyzes the text and creates a phrase query out of the analyzed text.

    # match_phrase 查询首先将查询字符串解析成一个词项列表,然后对这些词项进行搜索,但只保留那些包含 全部 搜索词项,且 位置 与搜索词项相同的文档。
    # 它匹配相对顺序一致的所有指定词语。

    # 一个被认定为和短语 quick brown fox 匹配的文档,必须满足以下这些要求:
    # quick 、 brown 和 fox 需要全部出现在域中。
    # brown 的位置应该比 quick 的位置大 1 。
    # fox 的位置应该比 quick 的位置大 2 。
    # 如果以上任何一个选项不成立,则该文档不能认定为匹配。

    s11 = {'query': {'match_phrase': {'text.content': '安全 你好'}}}  # ['安', '全', '你', '好']

    # 当一个字符串被分词后,这个分析器不但会返回一个词项列表,而且还会返回各词项在原始字符串中的 位置 或者顺序关系

    s12 = {'query': {'match_phrase': {'text.content': '希望 技。@术 你好#!!'}}}  # ['希', '望', '技', '术', '你', '好']

    Log.info('********')

    # multi_match 查询
    # 可以在多个字段上执行相同的 match 查询。
    # The multi_match query builds on the match query to allow multi-field queries

    # 字段名称可以用模糊匹配的方式给出:任何与模糊模式正则匹配的字段都会被包括在搜索条件中
    s21 = {'query': {'multi_match': {'query': 11, 'fields': '*eq'}}}  # "seq":{"type":"long"}

    # "msgId":{"type":"text"    "text":{"properties":{"content":{"type":"text",
    s22 = {'query': {'multi_match': {'query': 'ABc', 'fields': ['msgId', 'text.content']}}}

    # "msgTime":{"type":"long"}
    s23 = {'query': {'multi_match': {'query': 1702877305000, 'fields': ['msgTime', 'seq']}}}

    Log.info('********')

    # match 一次能搜索多个值

    # 任何文档只要 text.content 字段里包含 指定词项中的至少一个词 就能匹配,被匹配的词项越多,文档就越相关。
    s31 = {'query': {'match': {'text.content': '科技公司 123 你好 深圳'}}, 'size': 20}

    # match 查询还可以接受 operator 操作符作为输入参数,默认情况下该操作符是 or 。
    # 我们可以将它修改成 and 让所有指定词项都必须匹配
    s41 = {'query': {'match': {'text.content': {'query': '科技公司 123 你好 深圳 安全', 'operator': 'and'}}}, 'size': 500}

    Log.info('********')

    search_list = [s21, s22, s23]
    # search_list = [s31, s41]
    # search_list = [s11, s12]

    for sl in search_list:
        search_send_get_post(url=gl_url, auth=gl_es_auth, json_data=sl)


def test_query_4():
    """
    prefix  wildcard    regexp
    :return:
    """
    # prefix 、 wildcard 和 regexp 查询是基于词操作的,如果用它们来查询 analyzed 字段,它们会检查字段里面的每个词,而不是将字段作为整体来处理。

    Log.info('********')

    # prefix 前缀查询
    # Returns documents that contain a specific prefix in a provided field.

    # prefix 查询是一个词级别的底层的查询,它不会在搜索之前分析查询字符串,它假定传入前缀就正是要查找的前缀。
    # 默认状态下, prefix 查询不做相关度评分计算,它只是将所有匹配的文档返回,并为每条结果赋予评分值 1 。

    # 前缀越短所需访问的词越多。如果我们要以 W 作为前缀而不是 W1 ,那么就可能需要做千万次的匹配。

    # wm61TEST
    s11 = {'query': {'prefix': {'from': 'wm61TEST2AAA40'}}}
    s12 = {'query': {'prefix': {'from': 'wm61TEST2AAA40'.lower()}}}  # from存的时候 做了分词

    # 9dea20TESTb4dcafbe396a1aa7
    s13 = {'query': {'prefix': {'msgId': {'value': '9dea20TEST'}}}}

    Log.info('********')

    # wildcard 通配符查询
    # Returns documents that contain terms matching a wildcard pattern.

    # ? which matches any single character
    # * which can match zero or more characters, including an empty one
    # 它使用标准的 shell 通配符查询: ? 匹配任意1个字符, * 匹配 0或多个字符。

    s21 = {'query': {'wildcard': {'msgId': {'value': '9dea20TEST*'}}}}

    Log.info('********')

    # regexp 查询
    # 要避免使用左通配这样的模式匹配(如: *foo 或 .*foo 这样的正则式)
    # https://www.elastic.co/guide/en/elasticsearch/reference/7.17/regexp-syntax.html#regexp-standard-operators

    s22 = {'query': {'regexp': {'from': 'wm61TEST2AAA40.+'.lower()}}}

    Log.info('********')

    # search_list = [s11, s12, s13]
    search_list = [s21, s22]

    for sl in search_list:
        search_send_get_post(url=gl_url, auth=gl_es_auth, json_data=sl)


def test_query_5():
    """
    组合查询
    :return:
    """

    # bool 查询(将多查询 组合成 单一查询)
    # {
    #    "bool" : {
    #       "must" :     [],
    #       "should" :   [],
    #       "must_not" : [],
    #    }
    # }

    # 它接收以下参数:
    # must      文档 必须匹配这些条件才能被包含进来。【与 AND 等价】
    # must_not  文档 必须不匹配这些条件才能被包含进来。【与 NOT 等价】
    # should    文档 至少有一个语句要匹配。【与 OR 等价】

    # filter    【但它以不评分、过滤模式来进行。这些语句对评分没有贡献,只是根据过滤标准来排除或包含文档。】

    # 要求 :msgTime 等于 1703049007000.0 、seq 大于 140000
    s11 = {'query': {'bool': {

        'must':
            [{'term': {'msgTime': 1703049007000.0}},
             {'range': {'seq': {'gt': 140000}}}]
    }}}

    s12 = {'query': {'bool': {

        'must': {'match': {'msgTime': 1703049007000.0}},
        'filter': {'range': {'seq': {'gt': 140000}}}

    }}}  # range查询 已经移到 filter 语句

    Log.info('********')

    # 所有 must 语句必须匹配,所有 must_not 语句都必须不匹配,但有多少 should 语句应该匹配呢?
    # 默认情况下,没有 should 语句是必须匹配的,只有一个例外:那就是当没有 must 语句的时候,至少有一个 should 语句必须匹配。

    s21 = {'query': {'bool': {
        'must': {'term': {'msgTime': 1703049007000.0}},
        'must_not': {'range': {'seq': {'lte': 140000}}}
    }}}

    s31 = {'query': {'bool': {
        'must': {'term': {'msgTime': 1703049007000.0}},
        'must_not': {'range': {'seq': {'lte': 140000}}},
        'should': {'term': {'seq': 1}}
    }}}  # 有must,不会满足should

    s32 = {'query': {'bool': {
        'must': {'range': {'seq': {'gte': 140000}}},
        'should': {'terms': {'seq': [1, 11, 111]}}
    }}}  # 有must,不会满足should

    s40 = {'query': {'bool': {
        'must_not': {'range': {'seq': {'lte': 140000}}},
        'should': {'term': {'seq': 1}}
    }}}  # should必须满足,但 seq冲突

    s41 = {'query': {'bool': {
        'must_not': {'range': {'seq': {'lte': 140000}}},
        'should': {'terms': {'seq': [140050, 140040]}}
    }}}  # should必须满足,且 seq能 查到

    Log.info('********')

    # search_list = [s11, s12]
    search_list = [s21, s31, s32, s40, s41]

    for sl in search_list:
        search_send_get_post(url=gl_url, auth=gl_es_auth, json_data=sl)

    # 当进行精确值查找时,我们会使用过滤器(filters)。过滤器很重要,因为它们执行速度非常快,不会计算相关度(直接跳过了整个评分阶段)而且很容易被缓存。

def test_query_6():
    """
    游标查询
    :return:
    """

    # Scroll
    # 游标查询允许我们 先做查询初始化,然后再批量地拉取结果。

    s1 = {'query': {'match': {"roomId": 'xxx'}}, 'sort': ["_doc"], 'size': 30}
    scroll_time = '2m'

    # 启用游标查询可以通过在查询的时候设置参数 scroll 的值为我们期望的游标查询的过期时间。
    # 游标查询的过期时间 会在每次做查询的时候刷新,所以这个时间只需要足够处理当前批的结果就可以了,而不是处理查询结果的所有文档的所需时间。
    s1_url = '/'.join([gl_es_host_new, gl_index, '_search', '?scroll={}'.format(scroll_time)])
    s1_res = search_send_get_post(url=s1_url, auth=gl_es_auth, json_data=s1)

    scroll_res: list = s1_res.get('hits').get('hits')
    Log.info(len(scroll_res))

    # 这个查询的返回结果包括一个字段 _scroll_id, 它是一个base64编码的长字符串 。
    # 现在我们能传递字段 _scroll_id 到 _search/scroll 查询接口获取下一批结果:
    scroll_id = s1_res.get('_scroll_id')

    Log.info('********')

    while True:

        # 再次设置游标查询过期时间
        s2 = {'scroll_id': scroll_id, 'scroll': scroll_time}
        s2_url = '/'.join([gl_es_host_new, '_search', 'scroll'])

        s2_res = search_send_get_post(url=s2_url, auth=gl_es_auth, json_data=s2)
        scroll_res_ = s2_res.get('hits').get('hits')

        if not scroll_res_:
            break

        scroll_res.extend(scroll_res_)

    Log.info(len(scroll_res))

    #  游标查询用字段 _doc 来排序。 这个指令让 Elasticsearch 仅仅从还有结果的分片返回下一批结果。
    #
    # 游标查询的过期时间 很重要,因为保持这个游标查询窗口需要消耗资源,所以我们期望如果不再需要维护这种资源就该早点儿释放掉。
    # 设置这个超时能够让 Elasticsearch 在稍后空闲的时候自动释放这部分资源。

    # 注意游标查询每次返回一个新字段 _scroll_id。每次我们做下一次游标查询, 我们必须把前一次查询返回的字段 _scroll_id 传递进去。 当没有更多的结果返回的时候,我们就处理完所有匹配的文档了。

    Log.info('********')

    # 手动清理,using the clear-scroll API
    s3 = {'scroll_id': scroll_id}
    s3_url = s2_url

    s3_res = es_send_request('delete', s3_url, s3, gl_es_auth)
    assert s3_res.json().get('succeeded') is True


def search_send_get_post(url, auth, json_data) -> dict:
    """

    :param url:
    :param auth:
    :param json_data:
    :return:
    """
    time.sleep(1)

    # 对于一个查询请求,Elasticsearch 的工程师偏向于使用 GET 方式,因为他们觉得它比 POST 能更好的描述信息检索(retrieving information)的行为。
    # 然而,因为带请求体的 GET 请求并不被广泛支持,所以 search API同时支持 POST 请求。

    if random.getrandbits(1):

        res = requests.get(url, auth=auth, json=json_data)

    else:
        res = requests.post(url, auth=auth, json=json_data)

    Log.info(dump.dump_all(res).decode('utf-8'))
    # Log.info(dump.dump_response(res).decode('utf-8'))
    # Log.info(res.request.__dict__)

    result = res.json()

    res.close()

    Log.error('🚀🚀🚀🚀🚀🚀🚀🚀🚀🚀🚀🚀')

    return result


def test_query_7():
    """
    exists  ids
    :return:
    """

    # Exists query
    # Returns documents that contain an indexed value for a field.
    s11 = {'query': {'exists': {'field': 'to89794'}}}

    s12 = {'query': {'exists': {'field': 'msgType'}}}

    Log.info('********')

    # IDs
    # Returns documents based on their IDs. This query uses document IDs stored in the _id field.
    s21 = {'query': {
        'ids': {'values': ['x2180064b79bc-test-11ee-TEST-afbe396a1aa7', 'xie76cdec3731-test-11ee-TEST-f6e750ebe190']}}}

    s22 = {'query': {
        'ids': {'values': ['xie76cdec3731-test-11ee-TEST-f6e750ebe190']}}}

    Log.info('********')

    # search_list = [s11, s12, ]
    search_list = [s21, s22, ]

    for sl in search_list:
        search_send_get_post(url=gl_url, auth=gl_es_auth, json_data=sl)


def test_search_validate(query: dict, index_: str = gl_index):
    """

    :param query:
    :param index_:
    :return:
    """

    # validate-query API 可以用来验证查询是否合法
    # The validate API allows you to validate a potentially expensive query without executing it.

    url1 = '/'.join([gl_es_host_new, '_validate/query'])

    # explain 参数可以提供更多关于查询不合法的信息;对于合法查询,使用 explain 参数将返回可读的描述;
    url2 = '/'.join([gl_es_host_new, '_validate/query?explain=true'])  # 查询到的每一个 index 都会返回对应的 explanation
    url2_ = '/'.join([gl_es_host_new, '_validate/query?explain'])

    url3 = '/'.join([gl_es_host_new, index_, '_validate/query?explain'])

    # query
    # (Optional, query object) Defines the search definition using the Query DSL.
    assert query.get('query') is not None

    for u in [url1, url2, url2_, url3, ]:
        es_send_request('get', u, data_dict=query)


if __name__ == '__main__':
    pass

本文链接:https://blog.csdn.net/zyooooxie/article/details/123730279

个人博客 https://blog.csdn.net/zyooooxie

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值