Elasticsearch Java API 实现搜索功能(1) 单字段匹配

版本信息

Elasticsearch:5.6.9
Java:1.8.0

实现功能

1. 实现单字段简单查询
2. 精确匹配:matchPhraseQuery/matchPhrasePrefixQuery
3. 全文匹配:matchQuery/matchAllQuery

两种匹配的比较

1.matchPhraseQuery/matchPhrasePrefixQuery
    这种搜索方式要求关键词是严格匹配的,没有对关键词进行分割,只要有一个字不一样就匹配不上。
    例如: 输入:海明威, 文档是:海明天  结果:不匹配
          输入:海明威, 文档是:他叫海明威   结果:匹配
2. matchQuery/matchAllQuery
    这种匹配要求比较低,对于中文,它把词分成一个字一个字,只要有一个字一样就匹配
    例如: 输入:海明威, 文档是:大海  结果:匹配

符号介绍

 在后面的代码里,有一些我自己的变量,我都用"[]"标识出来,使用的时候可以直接替换。
【cluster_name】:集群的名字,默认是elasticsearch,如果你没有修改的话
【hostID】:网络id,也就是localhost的IP地址
【type】: 索引的类型,这个在你导入es数据时的mapping里定义的
【indices】:索引
【tag】:要搜索的字段
【key】:输入的关键词

用到的类

import java.net.InetAddress;
import org.elasticsearch.action.search.SearchResponse;
import org.elasticsearch.search.SearchHit;
import org.elasticsearch.search.SearchHits;
import org.elasticsearch.action.search.SearchType;
import org.elasticsearch.client.transport.TransportClient;
import org.elasticsearch.common.transport.InetSocketTransportAddress;
import org.elasticsearch.common.settings.Settings;
import org.elasticsearch.index.query.QueryBuilders;
import org.elasticsearch.transport.client.PreBuiltTransportClient;
import java.io.File;
import java.io.InputStreamReader;
import java.io.FileInputStream;
import java.io.BufferedReader;
import java.io.PrintWriter;
import java.io.FileWriter;
import java.util.Scanner;

Step.1:建立连接

这一步之前要保证elasticsearch是运行中的;

Settings settings = Settings.builder().put("cluster.name", 【cluster_name】).build();   
//这里使用client来连接es
TransportClient client = new PreBuiltTransportClient(settings)
                .addTransportAddress(new InetSocketTransportAddress(InetAddress.getByName(【hostID】), 9300));

Step.2 设计搜索规则

SearchResponse searchResponse = client.prepareSearch(【indices】)
                    .setSearchType(SearchType.DFS_QUERY_THEN_FETCH)
                    .setExplain(true) //explain为true表示根据数据相关度排序,和关键字匹配最高的排在前面
                    .setFrom(0).setMinScore(1).setSize(100) //设置只保留score>1的结果,并且最多保留100个
                    //.setFrom(0).setSize(100)//只设置保留个数
                    .setTypes(【type】)                                  
                    //.setQuery(QueryBuilders.matchPhraseQuery(【tag】, 【key】)) //指定查询的字段,只能实现连续的短语,不把词语分割成字 
                    //.setQuery(QueryBuilders.matchPhrasePrefixQuery(【tag】, 【key】))

                    .setQuery(QueryBuilders.matchQuery(【tag】, 【key】))
                    .get(); 

输出结果

 SearchHit[] searchHits = hits.hits();
 for (SearchHit s : searchHits) {
      //可以获取搜索结果的任何tag的值
      String str1 = s.getSource().get(【tag】).toString();
      System.out.println(str1);

      }
  client.close(); //关闭client
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,我了解您的要求并会尽力回答您的问题。首先,Elasticsearch Java API提供了一些聚合操作,包括terms聚合和cardinality聚合,可以用于去重和计数。您可以在查询中使用这些聚合操作,并将结果转换为您想要的格式。下面是一个示例代码片段,演示如何使用Elasticsearch Java API实现聚合去重并返回固定格式数据: ``` SearchRequest searchRequest = new SearchRequest("your-index"); SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder(); TermsAggregationBuilder aggregation = AggregationBuilders.terms("your-term-aggregation").field("your-field").size(10); CardinalityAggregationBuilder subAggregation = AggregationBuilders.cardinality("your-sub-aggregation").field("your-subfield"); aggregation.subAggregation(subAggregation); searchSourceBuilder.aggregation(aggregation); searchRequest.source(searchSourceBuilder); SearchResponse response = client.search(searchRequest, RequestOptions.DEFAULT); Terms terms = response.getAggregations().get("your-term-aggregation"); List<MyData> results = new ArrayList<>(); for (Terms.Bucket bucket : terms.getBuckets()) { Cardinality cardinality = bucket.getAggregations().get("your-sub-aggregation"); MyData data = new MyData(); data.setField(bucket.getKeyAsString()); data.setCount(cardinality.getValue()); results.add(data); } return results; ``` 在这个代码片段中,我们首先创建了一个SearchRequest和SearchSourceBuilder对象,用于构建我们的查询。然后,我们创建了一个terms聚合(your-term-aggregation),它将根据您指定的字段(your-field)对结果进行分组,并返回每个分组的数量。我们还创建了一个cardinality聚合(your-sub-aggregation),它将在每个分组中去重计数。 然后,我们将这两个聚合操作组合起来,并将它们添加到我们的查询中。我们执行查询,并从响应中提取terms聚合结果。最后,我们遍历每个terms bucket,并提取我们想要的数据,将其转换为MyData对象,并将它们添加到结果列表中。 请注意,此代码片段仅为示例,您需要将其调整为符合您的实际需求。同时,我会非常注重保护您的私密信息,绝不会透露任何关于您的任何信息。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值