【Elasticsearch】学习笔记-p7(数据聚合&自动补全),2024Java开发社招面试总结

先自我介绍一下,小编浙江大学毕业,去过华为、字节跳动等大厂,目前阿里P7

深知大多数程序员,想要提升技能,往往是自己摸索成长,但自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年最新Java开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友。
img
img
img
img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上Java开发知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

如果你需要这些资料,可以添加V获取:vip1024b (备注Java)
img

正文

}

这次的score_stats聚合是在brandAgg的聚合内部嵌套的子聚合。因为我们需要在每个桶分别计算。

另外,我们还可以给聚合结果做个排序,例如按照每个桶的酒店平均分做排序:

img

1.2.5 总结

aggs代表聚合,与query同级,此时query的作用是?

  • 限定聚合的的文档范围

聚合必须的三要素:

  • 聚合名称

  • 聚合类型

  • 聚合字段

聚合可配置属性有:

  • size:指定聚合结果数量

  • order:指定聚合结果排序方式

  • field:指定聚合字段

1.3 RestAPI实现聚合

聚合条件与query条件同级别,因此需要使用request.source()来指定聚合条件。

聚合条件的语法:

img

聚合的结果也与查询结果不同,API也比较特殊。不过同样是JSON逐层解析:

img

代码如下:

//聚合

@Test

void testAggregation() throws IOException {

//1.准备Request

SearchRequest request = new SearchRequest(“hotel”);

//2.准备DSL

request.source().size(0);

request.source().aggregation(AggregationBuilders

.terms(“brandAgg”)

.field(“brand”)

.size(20)

);

//3.发出请求

SearchResponse response = client.search(request, RequestOptions.DEFAULT);

//4.解析结果

Aggregations aggregations = response.getAggregations();

//4.1根据聚合名称获取聚合结果

Terms brandTerms = aggregations.get(“brandAgg”);

//4.2获取buckets

List<? extends Terms.Bucket> buckets = brandTerms.getBuckets();

//4.3遍历

for (Terms.Bucket bucket : buckets) {

//4.4获取key

String key = bucket.getKeyAsString();

System.out.println(key);

}

}

2.自动补全


当用户在搜索框输入字符时,我们应该提示出与该字符有关的搜索项,如图:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-uKEANYwe-1637384192176)(C:\Users\30287\Desktop\Java学习视频\day03-Docker\day07-Elasticsearch03\讲义\assets\image-20210723204936367.png)]

这种根据用户输入的字母,提示完整词条的功能,就是自动补全了。

因为需要根据拼音字母来推断,因此要用到拼音分词功能。

2.1 拼音分词器

要实现根据字母做补全,就必须对文档按照拼音分词。插件地址:https://github.com/medcl/elasticsearch-analysis-pinyin

img

使用 docker volume inspect es-plugins 查看插件目录,将下载的文件解压上传,重启 Elasticsearch

测试用法如下:

POST /_analyze

{

“text”: “如家酒店还不错”,

“analyzer”: “pinyin”

}

结果:

img

2.2 自定义分词器

默认的拼音分词器会将每个汉字单独分为拼音,而我们希望的是每个词条形成一组拼音,需要对拼音分词器做个性化定制,形成自定义分词器。

elasticsearch中分词器(analyzer)的组成包含三部分:

  • character filters:在tokenizer之前对文本进行处理。例如删除字符、替换字符

  • tokenizer:将文本按照一定的规则切割成词条(term)。例如keyword,就是不分词;还有ik_smart

  • tokenizer filter:将tokenizer输出的词条做进一步处理。例如大小写转换、同义词处理、拼音处理等

文档分词时会依次由这三部分来处理文档:

img

声明自定义分词器的语法如下:

PUT /test

{

“settings”: {

“analysis”: {

“analyzer”: { // 自定义分词器

“my_analyzer”: { // 分词器名称

“tokenizer”: “ik_max_word”,

“filter”: “py”

}

},

“filter”: { // 自定义tokenizer filter

“py”: { // 过滤器名称

“type”: “pinyin”, // 过滤器类型,这里是pinyin

“keep_full_pinyin”: false,

“keep_joined_full_pinyin”: true,

“keep_original”: true,

“limit_first_letter_length”: 16,

“remove_duplicated_term”: true,

“none_chinese_pinyin_tokenize”: false

}

}

}

},

“mappings”: {

“properties”: {

“name”: {

“type”: “text”,

“analyzer”: “my_analyzer”,

“search_analyzer”: “ik_smart”

}

}

}

}

测试:

img

总结:

如何使用拼音分词器?

  • ①下载pinyin分词器

  • ②解压并放到elasticsearch的plugin目录

  • ③重启即可

如何自定义分词器?

  • ①创建索引库时,在settings中配置,可以包含三部分

  • ②character filter

  • ③tokenizer

  • ④filter

拼音分词器注意事项?

  • 为了避免搜索到同音字,搜索时不要使用拼音分词器

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-QFtqHpTM-1637384192189)(C:\Users\30287\AppData\Roaming\Typora\typora-user-images\image-20211119082432872.png)]

2.3 自动补全查询

elasticsearch 提供了 Completion Suggester 查询来实现自动补全功能。这个查询会匹配以用户输入内容开头的词条并返回;为了提高补全查询的效率,对于文档中字段的类型有一些约束

  • 参与补全查询的字段必须是 completion 类型。

  • 字段的内容一般是用来补全的多个词条形成的数组。

比如,一个这样的索引库:

// 创建索引库

PUT test

{

“mappings”: {

“properties”: {

“title”:{

“type”: “completion”

}

}

}

}

然后插入下面的数据:

// 示例数据

POST test/_doc

{

“title”: [“Sony”, “WH-1000XM3”]

}

POST test/_doc

{

“title”: [“SK-II”, “PITERA”]

}

POST test/_doc

{

“title”: [“Nintendo”, “switch”]

}

查询的DSL语句如下:

// 自动补全查询

GET /test/_search

{

“suggest”: {

“title_suggest”: {

“text”: “s”, // 关键字

“completion”: {

“field”: “title”, // 补全查询的字段

“skip_duplicates”: true, // 跳过重复的

“size”: 10 // 获取前10条结果

}

}

}

}

2.4 自动补全查询的JavaAPI

之前我们学习了自动补全查询的DSL,而没有学习对应的JavaAPI,这里给出一个示例:

img

而自动补全的结果也比较特殊,解析的代码如下:

img

代码如下:

//补全

@Test

void testSuggest() throws IOException {

//1.准备Reequest

SearchRequest request = new SearchRequest(“hotel”);

//2.准备DSL

request.source().suggest(new SuggestBuilder().addSuggestion(

“suggestions”,

SuggestBuilders.completionSuggestion(“suggestion”)

总目录展示

该笔记共八个节点(由浅入深),分为三大模块。

高性能。 秒杀涉及大量的并发读和并发写,因此支持高并发访问这点非常关键。该笔记将从设计数据的动静分离方案、热点的发现与隔离、请求的削峰与分层过滤、服务端的极致优化这4个方面重点介绍。

一致性。 秒杀中商品减库存的实现方式同样关键。可想而知,有限数量的商品在同一时刻被很多倍的请求同时来减库存,减库存又分为“拍下减库存”“付款减库存”以及预扣等几种,在大并发更新的过程中都要保证数据的准确性,其难度可想而知。因此,将用一个节点来专门讲解如何设计秒杀减库存方案。

高可用。 虽然介绍了很多极致的优化思路,但现实中总难免出现一些我们考虑不到的情况,所以要保证系统的高可用和正确性,还要设计一个PlanB来兜底,以便在最坏情况发生时仍然能够从容应对。笔记的最后,将带你思考可以从哪些环节来设计兜底方案。


篇幅有限,无法一个模块一个模块详细的展示(这些要点都收集在了这份《高并发秒杀顶级教程》里),麻烦各位转发一下(可以帮助更多的人看到哟!)

由于内容太多,这里只截取部分的内容。

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化的资料的朋友,可以添加V获取:vip1024b (备注Java)
img

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
此,将用一个节点来专门讲解如何设计秒杀减库存方案。

高可用。 虽然介绍了很多极致的优化思路,但现实中总难免出现一些我们考虑不到的情况,所以要保证系统的高可用和正确性,还要设计一个PlanB来兜底,以便在最坏情况发生时仍然能够从容应对。笔记的最后,将带你思考可以从哪些环节来设计兜底方案。


篇幅有限,无法一个模块一个模块详细的展示(这些要点都收集在了这份《高并发秒杀顶级教程》里),麻烦各位转发一下(可以帮助更多的人看到哟!)

[外链图片转存中…(img-llI9Zgw4-1713436177528)]

[外链图片转存中…(img-T22cMNFG-1713436177529)]

由于内容太多,这里只截取部分的内容。

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化的资料的朋友,可以添加V获取:vip1024b (备注Java)
[外链图片转存中…(img-qUSTqP38-1713436177530)]

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值