个推基于Elasticsearch搜索引擎架构演变

本文为作者投稿,欢迎技术投稿、约稿、给文章纠错,请发送邮件至tangxy@csdn.net

搜索引擎选型

从原先的solr的单点到后面的Elasticsearch集群,个推的搜索引擎框架经历了从单点到集群的转变,而且在开源搜索引擎选型上经历了从原先的solr到开源的可扩展的Elasticsearch的选型变化。当时我们在做solr和Elasticsearch对比测试的时候发现,Elasticsearch的性能、搜索性能,比solr要优越一些,所以现在整个个推的搜索系统都是基于Elasticsearch。且最重要的一点——开源,因此我们可以根据自身的业务来针对Elasticsearch做一些自己的优化,包括对源代码的处理之类。

Elasticsearch集群架构

目前个推的Elasticsearch集群,主要采用master-data和loadbalance的集群架构设计,后期在业务和搜索场景业务愈加复杂后,要涉及到很多的聚合,且这种业务需求会越来越大。因此对数据的聚合操作各方面,在集群里面单独设置了loadbalance节点,这个节点就是专门处理一些数据的聚合操作。

Elasticsearch历史演变过程以及遇到的问题和优化处理

个推从比较早就开始使用Elasticsearch,所以使用过程中无论从性能上还是各方面,都遇到了比较多的问题,首先我们建索引非常慢,当然这也是很多方面的一些原因,尤其Elasticsearch对整个硬件方面的性能要求其实还是挺高的。第二个问题,我们早期经常遇到节点脱离集群的问题,甚至有时候连master也会脱离集群。第三个是我们在使用1.2.2的Elasticsearch版本当中,发现get操作,经常会被堵塞。

还有一个问题,我们在Elasticsearch的备份过程中遇到了一个到目前为止解决不是太好的问题,做索引备份和恢复的过程中,Elasticsearch备份无法恢复,但我们运行了两年多的时间不可能把所有Elasticsearch的备份都备份在这个集群上。

目前我们采用的方式是备份这个Elasticsearch索引数据的时候,通过自己的自动化脚本,比如一个月备份之后,把它的目录做一个切换。当然我们自己也会做一些类似暴力测试或者什么样的,万一线上的集群挂了,能不能从备份里正常的恢复,我能不能在不停服务的情况下正常的保证所有的搜索功能是正常的。

具体分析Elasticsearch遇到的问题使用的工具

在我们Elasticsearch集群里,怎么使用JVM的分析工具,来分析实际使用Elasticsearch当中遇到的问题,如何通过JVM的分析来解决这些问题,包括后期的一些优化等。这里面大概列了五点,在我们的Elasticsearch集群里使用到了JVM工具,主要是gc的日志输出。还有jconsole的方式,出现问题的时候去分析内存,这些具体的信息。第三个是jvisualvm的方式,当集群里面某个节点出现异常或者挂掉的时候,脱离集群时,通过自动化脚本会自动的打一些关于这个节点的信息之类的。第四是jstack,最后一个会用到Eclipse的内存分析器,这些工具功能也非常强大,而且可视化包括一些具体的信息都可以展示的非常清楚,也有利于你去分析具体的问题。

Elasticsearch集群问题分析案例

在个推Elasticsearch实际使用过程中,我们遇到的相对来说比较典型或者有代表性的几个问题来跟大家简单的介绍一下,我们针对这些问题是如何去分析和解决这些问题的,包括我们后期的一些优化之类的。

节点脱离集群问题分析

[es-date-1224] [gc][young][3402090][244044] duration [887ms],collections [1]/[1.5s], total [887ms]/[3.3h], memory [4.5gb]->[4gb]/[6.9gb],all_pools {[young][499.4mb]->[782.8kb]/[532.5mb]}{[survivor][32.7mb]->[30.2mb]/[66.5mb]}{[old] [3.9gb]->[3.9gb]/[6.3gb]}

上面这个例子的情况无须紧张,只是young gc,并且只用了887ms,对于Elasticsear而言,没有啥影响。唯一需要留心的是,如果在日志中出现连续的和长时间的young gc则需要引起警觉,可能是你的Heap内存分配不够。

Elasticsearch集群index索引慢分析

上图我们发现在这个节点上整个load并不是特别高,索引非常慢,而且并不是非常平稳。从客户端的jstack来看客户端实际上是堵塞的,最终导致整个的集群的索引性能上不去。早期的版本里,其实建索引,建flush,是有两个参数的,但早期默认配置比较低,后来我们把参数给调大,包括反射区的大小也进行了一个自己的超缩。通过这种方式,去解决Elasticsearch索引慢的情况。

Elasticsearch集群get操作慢分析

第三个问题,我们使用了Elasticsearch1.2.2这个版本之后,有很多的业务需求是根据id去获取用户具体信息,通过get去获取索引内容。发现这个get请求并发量非常高而且每次的请求可能是通过不同的条件请求下,这个get的操作非常慢,而且从一些工具抓出来的信息可以看到,所有的机器基本上它的CPU都是跑满的。但我们可以看到在CPU跑满的情况下,其实其他的一些像gc、load都还是ok的。当时我们想什么样的操作导致CPU基本上百分之百的状态下跑?

通过对它的信息当时出问题的抓的情况下,具体的分析。因为每次get请求的操作,的条件都是不一样的,在我们1.2.2 Elasticsearch版本里,在Elasticsearch集群里的result caches里是找不到上一次的查询结果的,所以它每次都会调一个identityHashCode来计算一个hash值。然后放入weakldentityMap中,这些操作占用了绝大部分的CPU时间,导致整个操作非常慢。在升级到1.5.2以后,很明显的get操作就比原来提升到一个数量级上了,所以目前使用的是1.5.2版本。

Elasticsearch集群JVM优化

我们目前使用的JDK是1.7版本,相对来说能给到很好的支持这个Elasticsearch系统,并把它默认的系统配置都进行了一个调整。还有在明确自己需求的情况下我们禁用了jdk7默认的垃圾回收,并把垃圾回收的阀值进行了一个调高,对应调整了cache超时的时间,每层的分段所设置的允许的数量,也相应的降低了这个也是我们在实际个推使用Elasticsearch的过程中,不断的一个调优的过程中去完善整个基于Elasticsearch搜索系统。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值