仿牛客社区项目笔记-分布式搜索引擎(引入Elasticsearch)

1. 分布式搜索引擎

分为引入Elasticsearch,Spring 整合 Elasticsearch,开发社区搜索功能。

1.1 引入Elasticsearch

Elasticsearch简介:在这里插入图片描述

  1. 在 www.elastic.co 下载 Elasticsearch 6.4.3 版本,与 SpringBoot 版本匹配。7.x 版本不兼容。(7.x版本将类型去掉)
  2. 解压缩到磁盘,将 config 中的 elasticsearch.yml 文件中的 cluster.name 改为项目名,将 path.data, path.logs 路径改为磁盘路径。配置环境变量。
  3. 在 github 下载中文分词包 ik,解压到 plugins 文件夹下。
  4. 在 bin 文件夹下点击 elasticsearch.bat 使其运行,才能在postman客户端下进行命令行操作。

1.2 Spring 整合 Elasticsearch

  1. 在pom.xml 文件中添加 spring-boot-starter-data-elasticsearch 依赖。
  2. 在 application.properties 中设置配置。
  3. Elasticsearch 和 Redis 底层均依赖于 netty,存在冲突。在CommunityApplication 做系统配置修改解决冲突。
  4. 对 DiscussPost 实体类加注解,使 Elasticsearch 能够识别。在 Dao 层加入 DiscussPostRepository 接口继承于 ElasticsearchRepository ,即可直接调用增删改查方法。
  5. 在 ElasticsearchTests 测试类将帖子插入到 Elasticsearch 服务器中并进行简单查询。

1.3 开发社区搜索功能

1.3.1 搜索功能

  1. 在搜索框搜索关键字,映射到 SearchController 层的 /search。调用 elasticsearchService.searchDiscussPost 方法,传入关键词和分页信息。
  2. searchDiscussPost 方法构造一个 searchQuery 来实现标题和内容的多匹配查询,同时根据置顶等条件设置倒序。然后调用 elasticTemplate.queryForPage 的方法来进行查询,并且将匹配到的字段进行标红。然后将命中的帖子列表返回。
  3. 然后根据帖子列表聚合数据,将每个帖子的用户和点赞数量也放入其中。设置分页信息。
  4. 返回 /site/search。

1.3.2 更新Elasticsearch 服务器中的帖子

发布帖子,增加评论时要将帖子异步提交到 Elasticsearch 服务器。利用kafka实现。

  1. 在 DiscussPostController 层的 /add 映射下,触发发帖事件,构造 Topic 为 TOPIC_PUBLISH 的 Event,需要设置userId,EntityType,EntityId。然后使用 eventProducer.fireEvent 开始生产。见 帖子模块(核心)1.2小节。
  2. 在 CommentController 层的 /add/{discussPostId} 映射下,判断一下评论的是不是帖子,如果是则触发发帖事件。同上。见 帖子模块(核心)1.5小节。
  3. 在 EventConsumer 中构建消费发帖事件,监听的 Topic 为 TOPIC_PUBLISH。判断消息是否为空,不为空将消息转为 Event,然后根据 Event 的 EntityId 获取到帖子,然后调用 discussRepository.save 方法将帖子插入到Elasticsearch 服务器中。
  • 3
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Kafka是一个高性能的分布式消息队列系统,可以实现高吞吐量、低延迟的消息传递。它支持点对点和发布-订阅两种消息传递模式。在仿牛客项目中使用Kafka可以实现消息的异步处理和分布式架构。 使用Kafka的第一步是创建一个主题(topic),主题既是消息的类别,也是消息在Kafka中的存储位置。可以使用命令行工具kafka-topics.bat来创建主题。例如,可以使用以下命令来创建一个名为test的主题: bin\windows\kafka-topics.bat --create --bootstrap-server localhost:9092 --replication-factor 1 --partitions 1 --topic test 上述命令中,--bootstrap-server参数指定了Kafka服务器的地址和端口,--replication-factor参数指定了主题的副本数,--partitions参数指定了主题的分区数。创建主题后,可以向主题中发送消息,并由消费者进行消费。 要列出已经存在的主题,可以使用以下命令: kafka-topics.bat --list --bootstrap-server localhost:9092 需要注意的是,以上命令中的localhost:9092是Kafka服务器的地址和端口,根据实际情况进行修改。 总结起来,在仿牛客项目中使用Kafka,首先需要创建一个主题,然后可以使用相关命令行工具进行消息的发送和消费。这样可以实现消息的异步处理和分布式架构。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [仿牛客论坛项目学习记录——5 Kafka 构建TB级异步消息系统](https://blog.csdn.net/dadayangpei/article/details/127173098)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值