白话Elasticsearch01- 结构化搜索之使用term query来搜索数据


在这里插入图片描述

需求描述

这个系列我们来跟着中华石杉老师来系统的学习下ES

课程地址: https://www.roncoo.com/view/55

需求背景: 一个普通的论坛,根据用户ID、是否隐藏、帖子ID、发帖日期来搜索帖子


ES版本

我这里用的版本是ES6.4.1 , 只要是5.X以上的版本都使用。目前ES的版本已经到了7.0.

Kibana用的也是对应的kibana-6.4.1-windows-x86_64

Term Filter 不推荐使用了,推荐使用 Term Query

https://www.elastic.co/guide/en/elasticsearch/reference/6.4/query-dsl-term-filter.html#query-dsl-term-filter

在这里插入图片描述
6.4版本的 Term Query说明

https://www.elastic.co/guide/en/elasticsearch/reference/6.4/query-dsl-term-query.html


_bulk 批量写几条数据

POST /forum/article/_bulk
{ "index": { "_id": 1 }}
{ "articleID" : "XHDK-A-1293-#fJ3", "userID" : 1, "hidden": false, "postDate": "2017-01-01" }
{ "index": { "_id": 2 }}
{ "articleID" : "KDKE-B-9947-#kL5", "userID" : 1, "hidden": false, "postDate": "2017-01-02" }
{ "index": { "_id": 3 }}
{ "articleID" : "JODL-X-1937-#pV7", "userID" : 2, "hidden": false, "postDate": "2017-01-01" }
{ "index": { "_id": 4 }}
{ "articleID" : "QQPX-R-3956-#aD8", "userID" : 2, "hidden": true, "postDate": "2017-01-02" }


_bulk 用法

BULK API官网说明: https://www.elastic.co/guide/en/elasticsearch/reference/current/docs-bulk.html

简单说下_bulk api , 批量执行,对执行的json串有严格的格式要求,不要格式化JSON串
在这里插入图片描述


返回结果分析

直接在kibana的DevTool中执行上述JSON即可

在这里插入图片描述

返回结果

#! Deprecation: the default number of shards will change from [5] to [1] in 7.0.0; if you wish to continue using the default of [5] shards, you must manage this on the create index request or with an index template
{
  "took": 1581,
  "errors": false,
  "items": [
    {
      "index": {
        "_index": "forum",
        "_type": "article",
        "_id": "1",
        "_version": 1,
        "result": "created",
        "_shards": {
          "total": 2,
          "successful": 1,
          "failed": 0
        },
        "_seq_no": 0,
        "_primary_term": 1,
        "status": 201
      }
    }
    ......篇幅原因,省略其他三个的显示
    }
  ]
}

结果说明:

在这里插入图片描述

  • took: query的时间,不包括fetch

再看下_shard节点下的total和successful信息

  • total: 2 一共两个shard需要执行 ,一个primary shard ,一个
    replicas shard . 因为我们在同一个机器上起的(默认使用的 主shard 5 副本shard 1的配置)。 主shard 和 副本shard不能在同一个node上,所以该副本shard并未分配,所以这里successful 为1 。

通过head插件我们也可以窥之一二

在这里插入图片描述


字段Dynamic Mapping

  • POST /forum/article/_bulk es会自动创建名为forum的index和名为article的 type
  • 未提前设置field类型的话,es会通过Dynamic Mapping的方式来自动映射字段类型 ,我们来看下 GET /forum/_mapping/article
执行:
GET /forum/_mapping/article

返回:
{
  "forum": {
    "mappings": {
      "article": {
        "properties": {
          "articleID": {
            "type": "text",
            "fields": {
              "keyword": {
                "type": "keyword",
                "ignore_above": 256
              }
            }
          },
          "hidden": {
            "type": "boolean"
          },
          "postDate": {
            "type": "date"
          },
          "userID": {
            "type": "long"
          }
        }
      }
    }
  }
}

Dynamic Mapping 中 text类型的字段

我们重点来看下 articleID

  • es 5.x版本中对于type=text,默认会设置两个field, 一个是field本身,比如articleID,就是分词的, 另外一个,就是field.keyword,在这里就是用的话articleID.keyword,默认不分词,最多保留256个字符("ignore_above": 256

articleID.keyword,是es新版本内置建立的field,就是不分词的。所以一个articleID过来的时候,会建立两次索引,一次是自己本身,是要分词的,分词后放入倒排索引;
另外一次是基于articleID.keyword,不分词,保留256个字符最多,直接一个字符串放入倒排索引中。

所以term filter,对text过滤,可以考虑使用内置的field.keyword来进行匹配。但是有个问题,默认就保留256个字符。所以尽可能还是自己去手动建立索引,指定not_analyzed吧。在新版本的es中,不需要指定not_analyzed也可以,将type=keyword即可。

"articleID": {
   "type": "text",
    "fields": {
      "keyword": {
        "type": "keyword",
        "ignore_above": 256
 		 }
    }
  },

查看分词

查看下Dynamic mapping下,text类型的分词

field

GET /forum/_analyze
{
  "field": "articleID",
  "text": "XHDK-A-1293-#fJ3"
}

在这里插入图片描述

可以看到 articleID建立索引的时候,XHDK-A-1293-#fJ3被分词成了 xhdk,a,1293,fj3

默认是analyzed的text类型的field,建立倒排索引的时候,就会对所有的articleID分词,分词以后,原本的articleID就没有了,只有分词后的各个word存在于倒排索引中。所以根据XHDK-A-1293-#fJ3 去查询,肯定是在 xhdk,a,1293,fj3 中查找不到数据的。


field.keyword

GET /forum/_analyze
{
  "field": "articleID.keyword",
  "text": "XHDK-A-1293-#fJ3"
}	

在这里插入图片描述

term,是不对搜索文本分词的,直接将输入的内容去倒排索引中匹配,XHDK-A-1293-#fJ3 --> XHDK-A-1293-#fJ3;但是articleID建立索引的时候,XHDK-A-1293-#fJ3 --> xhdk,a,1293,fj3 ,所以使用 articleID是查不到的, articleID.keyword 是可以查到的。 如下所示

在这里插入图片描述

在这里插入图片描述


几个小例子

term filter/query:对搜索文本不分词,直接拿去倒排索引中匹配,你输入的是什么,就去匹配什么。 比如说,如果对搜索文本进行分词的话,“helle world” --> “hello”和“world”,两个词分别去倒排索引中匹配 。 term,“hello world” --> “hello world”,直接去倒排索引中匹配“hello world”

这里我们不关心相关度即_score,仅仅是希望通过filter过滤出来数据,所以 使用了 constant_score , 设置相关度都是1.

先通过head插件看下数据 在这里插入图片描述


根据用户ID搜索帖子

GET /forum/article/_search
{
  "query": {
    "constant_score": {
      "filter": {
        "term": {
          "userID": 1
        }
      }
    }
  }
}

在这里插入图片描述

Term Query的写法(推荐)

GET /forum/article/_search
{
  "query": {
    "term": {
      "userID": "1"
    }
  }
}

搜索没有隐藏的帖子

GET /forum/article/_search
{
  "query": {
    "constant_score": {
      "filter": {
        "term": {
          "hidden": false
        }
      }
    }
  }
}

在这里插入图片描述

Term Query的写法(推荐)

{
  "query": {
    "term": {
      "hidden": false
    }
  }
}

根据发帖日期搜索帖子

GET /forum/article/_search
{
  "query": {
    "constant_score": {
      "filter": {
        "term": {
          "postDate": "2017-01-02"
        }
      }
    }
  }
}

在这里插入图片描述

Term Query的写法(推荐)

GET /forum/article/_search
{
  "query": {
    "term": {
      "postDate": "2017-01-02"
    }
  }
}

根据帖子ID搜索帖子

GET /forum/article/_search
{
  "query": {
    "constant_score": {
      "filter": {
        "term": {
          "articleID": "QQPX-R-3956-#aD8"
        }
      }
    }
  }
}

在这里插入图片描述

Term Query的写法(推荐)

GET /forum/article/_search
{
  "query": {
    "term": {
      "articleID": "QQPX-R-3956-#aD8"
    }
  }
}

删除索引,指定articleID的类型

这种Dynamic mapping的情况,肯定是查找不到数据了,要么指定 articleID.keyword。 更推荐自己设置类型,设置成 not_analyzed,或者直接将articleID设置为keyword更加方便。

那我们按照自己设置字段类型keyword的方式来演示下吧

先删掉原来的forum索引

DELETE /forum

手动设置 articleID的类型为 keyword

PUT /forum
{
  "mappings":{
    "article":{
      "properties":{
        "articleID":{
          "type":"keyword"
        }
      }
    }
  }
}

这样的话,就建好了一个 只有一个字段的type. 字段类型确定后无法修改,因为涉及到底层lucene的全文检索。 但是可以增加字段,通过如下的方式,_bulk写入数据的时候,新增几个字段,因为没有指定字段类型,所以是Dynamic Mapping的方式创建的

POST /forum/article/_bulk
{ "index": { "_id": 1 }}
{ "articleID" : "XHDK-A-1293-#fJ3", "userID" : 1, "hidden": false, "postDate": "2017-01-01" }
{ "index": { "_id": 2 }}
{ "articleID" : "KDKE-B-9947-#kL5", "userID" : 1, "hidden": false, "postDate": "2017-01-02" }
{ "index": { "_id": 3 }}
{ "articleID" : "JODL-X-1937-#pV7", "userID" : 2, "hidden": false, "postDate": "2017-01-01" }
{ "index": { "_id": 4 }}
{ "articleID" : "QQPX-R-3956-#aD8", "userID" : 2, "hidden": true, "postDate": "2017-01-02" }

看下 field的类型

GET /forum/_mapping/article

在这里插入图片描述
再次查询下 ,指定articleID的类型为keyword,查询到了数据。

在这里插入图片描述

总结一下 term

(1)term filter:根据exact value进行搜索,数字、boolean、date天然支持
(2)text类型的字段需要建索引时指定为not_analyzed或者设置为keyword,才能用term query
(3)term 相当于SQL中的单个where条件


  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
使用elasticsearch-sql框架,可以通过以下步骤将SQL数据插入ES: 1. 创建一个ES索引,定义字段映射 2. 使用ES-SQL框架连接ES,执行SQL查询获取数据 3. 遍历查询结果,使用ES-SQL框架提供的API将数据插入ES 下面是一个示例代码,演示如何使用ES-SQL框架将SQL数据插入ES: ```java import io.github.iamazy.elasticsearch.dsl.sql.parser.SqlParser; import org.elasticsearch.action.bulk.BulkRequest; import org.elasticsearch.action.bulk.BulkResponse; import org.elasticsearch.client.RequestOptions; import org.elasticsearch.client.RestHighLevelClient; import org.elasticsearch.index.query.QueryBuilders; import org.elasticsearch.rest.RestStatus; import org.elasticsearch.search.builder.SearchSourceBuilder; import org.nlpcn.es4sql.exception.SqlParseException; import org.nlpcn.es4sql.query.QueryAction; import org.nlpcn.es4sql.query.SqlElasticRequestBuilder; import java.io.IOException; import java.sql.*; public class SqlToEs { // 定义ES索引名称 private static final String INDEX_NAME = "my_index"; // 定义ES连接客户端 private RestHighLevelClient client; // 定义SQL查询语句 private String sql = "SELECT * FROM my_table WHERE id > 100"; public SqlToEs() { // 初始化ES连接客户端 client = new RestHighLevelClient(); } public void insert() throws SQLException, IOException, SqlParseException { // 解析SQL查询语句 SqlParser sqlParser = new SqlParser(); QueryAction queryAction = sqlParser.parseSelect(sql); // 构建ES查询请求 SqlElasticRequestBuilder requestBuilder = queryAction.explain(); SearchSourceBuilder sourceBuilder = requestBuilder.getSourceBuilder(); sourceBuilder.query(QueryBuilders.matchAllQuery()); String query = sourceBuilder.toString(); // 执行SQL查询获取数据 Connection conn = DriverManager.getConnection("jdbc:mysql://localhost:3306/my_database", "user", "password"); Statement stmt = conn.createStatement(); ResultSet rs = stmt.executeQuery(query); // 遍历查询结果,将数据插入ES BulkRequest request = new BulkRequest(); while (rs.next()) { // 创建一个ES文档 Map<String, Object> document = new HashMap<>(); document.put("id", rs.getInt("id")); document.put("name", rs.getString("name")); document.put("age", rs.getInt("age")); // 添加到批量请求中 request.add(new IndexRequest(INDEX_NAME).source(document)); } // 执行批量请求 BulkResponse bulkResponse = client.bulk(request, RequestOptions.DEFAULT); if (bulkResponse.status() == RestStatus.OK) { System.out.println("数据插入成功!"); } } } ``` 这里使用ES-SQL框架解析SQL查询语句,并构建ES查询请求。然后执行SQL查询获取数据,并遍历查询结果,将数据插入ES。最后使用ES客户端执行批量请求,将数据插入ES

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小小工匠

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值