es分组后分页_有没有 elasticsearch 熟悉的大佬,分组聚合分页的问题

实现类似 SQL 里面 group by 分组去重之后分页输出列表。

我的做法如下:

获取当前页的数据列表

用的是composite桶聚合获取一页的数据,下一页用after参数。

获取到一页数据列表之后,拿到 id 列表再去主表里面查询具体的数据。

agg 部分:

'aggs' => [

'uid' => [

'composite' => [

'size' => 20,

'sources' => [

[

'uid' => [

'terms' => [

'field' => 'uid',

'order' => 'desc',

],

],

],

],

],

]

用 uid 聚合和排序

获取数据总数

用的cardinality和sum_bucket组和。

聚合之后在计算桶的总数,size 设置一个比较大的数。

agg 部分:

'aggs' => [

'uid' => [

'terms' => [

'field' => 'uid',

'size' => 5000,

],

'aggs' => [

'uid_count' => [

'cardinality' => [

'field' => 'uid',

],

],

],

],

'sun_uid' => [

'sum_bucket' => [

'buckets_path' => 'uid>uid_count',

],

],

]

方法对不对呀?总感觉 es 做分页列表输出不是太好,只能获取下一页。

ui 需求分页需求是可以跳页,随便点哪页的,用 es 的话,一般怎么满足的?还是说满足不来,只能改需求了。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要实现 ES 聚合分页,可以使用 Elasticsearch 的 Java API 来编写代码。下面是一个简单的示例: ```java import org.elasticsearch.action.search.SearchResponse; import org.elasticsearch.client.transport.TransportClient; import org.elasticsearch.common.transport.InetSocketTransportAddress; import org.elasticsearch.index.query.QueryBuilders; import org.elasticsearch.search.aggregations.AggregationBuilders; import org.elasticsearch.search.aggregations.bucket.terms.Terms; import org.elasticsearch.search.aggregations.metrics.sum.Sum; import org.elasticsearch.search.sort.SortBuilders; import org.elasticsearch.search.sort.SortOrder; import org.elasticsearch.transport.client.PreBuiltTransportClient; import java.net.InetAddress; import java.util.List; import java.util.Map; public class AggregationPaginationExample { public static void main(String[] args) throws Exception { TransportClient client = new PreBuiltTransportClient(Settings.EMPTY) .addTransportAddress(new InetSocketTransportAddress(InetAddress.getByName("localhost"), 9300)); int pageSize = 5; int pageNumber = 1; SearchResponse response = client.prepareSearch("my_index") .setQuery(QueryBuilders.matchAllQuery()) .addAggregation( AggregationBuilders.terms("my_terms_agg") .field("my_field") .subAggregation(AggregationBuilders.sum("my_sum_agg").field("my_other_field")) .order(Terms.Order.aggregation("my_sum_agg", false)) .size(pageSize) .from((pageNumber - 1) * pageSize) ) .setSize(0) .get(); Terms termsAgg = response.getAggregations().get("my_terms_agg"); for (Terms.Bucket bucket : termsAgg.getBuckets()) { String key = bucket.getKeyAsString(); long docCount = bucket.getDocCount(); Sum sumAgg = bucket.getAggregations().get("my_sum_agg"); double sumValue = sumAgg.getValue(); System.out.println(key + ": " + docCount + " documents, sum = " + sumValue); } client.close(); } } ``` 这个示例使用了 Elasticsearch 的 Java API,查询一个名为 `my_index` 的索引,按照 `my_field` 字段进行分组,并计算每组中 `my_other_field` 字段的总和。然后按照总和排序,并使用分页参数进行分页。最后打印出每个分组的结果。 需要注意的是,聚合分页的实现方式与普通的分页略有不同,具体可以参考上面的代码示例。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值