记一次群聊消息查询优化的实践

一晃,做群聊业务两年多了。

随着业务的增长,群数量不断增长,聊天消息也在不断增长。

群聊的全局搜索的性能问题愈发凸显。

设计之初,考虑群消息的急剧增长,选择了使用阿里云的tablestore,这是一个类似ElasticSearch,拥有强大的搜索能力。

现在来看,还是过于乐观了。

当单表数据达到2亿+的时候,查询变得异常艰难,甚至频繁超时,被客户疯狂吐槽。

当然,遇到这些问题,或许是我们使用的方式不对,欢迎大家帮忙斧正。本篇仅用于问题记录和经验交流分享。

tablestore简介

表格存储(Tablestore)面向海量结构化数据提供Serverless表存储服务,同时针对物联网场景深度优化提供一站式的IoTstore解决方案。适用于海量账单、IM消息、物联网、车联网、风控、推荐等场景中的结构化数据存储,提供海量数据低成本存储、毫秒级的在线数据查询和检索以及灵活的数据分析能力。

基本概念

在使用表格存储前,您需要了解以下基本概念。

应用场景

表格存储有互联网应用架构(包括数据库分层架构和分布式结构化数据存储架构)、数据湖架构和物联网架构三种典型应用架构。

  • 互联网应用历史订单数据场景IM场景Feed流场景

  • 大数据推荐系统舆情&风控分析(数据爬虫)场景

  • 物联网

基于我们的实际场景,选择了IM场景。

java sdk

更加详细的介绍请查看:《java sdk》

火线告警:500错误频发

从日志记录可以看出,异常的主要集中在去年9月~12月之间,基本上超时请求。

除此以外,还有大量的慢查询。

这是其中一个包含搜索群消息逻辑的接口,确实很慢。

特别是在去年年底,几乎每天技术群都会有几个报警。

真相大白:单表数据超2亿,tablestore连接超时

经过排查,存储群聊消息的宽表超过接近3亿条。

因为是群聊场景,每条消息发出都会投递给其他群成员,我们是按照接收人的方式存储的,所以消息数量会激增。

消息存储数量已经过亿,这个就导致ts查询性能急剧下降,不知道Elastic Search的在这种数量下的性能如何,请有这方面经验的朋友指点一下。

如何应对呢?

能想到的就是删除TS中历史数据,保留一定时段内的数据,控制数据量在一定范围内。

但是保留多久的数据,产品、运营都无法给出一个合理的时段。

于是陷入僵局。

紧急发版:快速关闭查询功能

每一个群报警,都像是敌人发起的冲锋号角,我不能坐视不管。

短时间内没有更好地解决方案,和运营沟通后,选择暂时关闭群聊查询功能。

紧急给这个功能增加了开关,下班就发版了。报警群安静了,安稳过年。

数据清理:仅保留半年内的数据

选择妥协,别为难自己。

程序员朋友爱较真,有些人甚至到了丧心病狂的程度。

我有个写代码的同事,每次有人找他改问题都像是干架。

我呢,有时候也会钻进牛角尖。

经过一顿操作,我发现暂时没有很好的解决方案,于是我妥协了。

既然,没有很好的优化办法,那就把历史数据删除了,只保留半年的数据。为此,转为写了一个定时任务,每天执行。

短时间内,我们将数据降低到2亿条以内。

收紧入口:只同步一条到tablestore

真正的猛士敢于直面困难,有些问题必须解决。

本以为定时删除数据的方案已经稳了,没想到增长的比删除的还快。

没到一个月,数据量又上来了。

我再次选择了关闭了群聊查询功能。

痛定思痛, 我决定优化方案——从源头控制写入TS的数量。

我们一起来看看之前的存储方案:

这样设计是考虑到可能会按照接收人来控制查看消息的权限。比如尽管在一个聊天群,但是进群的人是有先后的,不同时间进群的人可能看到的消息不一样。

弊端就是同一份消息会存储多份。

为什么要这样做呢?

因为我们的IM并没有使用本地数据库的方式,所有消息都是从服务端拉取的。

上面的分析我们知道,数据量太大是导致tablestore查询性能差的根本原因。

那我们考虑对现有方案进行改进:

  • 放开消息查询的限制,不在限制接收人

  • 消息按照发送人存储,仅存储一条

这样存储,我们的数据将会大幅度下降。

双保险:增加功能开关

防患未然,功能可开关。

我们总是喋喋不休的强调程序的稳定性、健壮性、可扩展性...

但是,我们总是无法一次性写出完美的程序。

业务需求的变化、数据量的变化、三方接口的升级等都不得不让我们经常考虑到对程序的重构,总之有各种不确定性的因素出现。

《记一次加锁导致ECS服务器CPU飙高分析》一文中,我们提到为了防患未然,对一些复杂功能增加开关是一个比较好的处理办法。

通过两个主要措施:

  • 数据清理:仅保留半年内的数据

  • 收紧入口:只同步一条到tablestore

几天之后,我们再次查看tablestore中单表的数据量已经大幅降低。

随着时间的推移,我们的策略会持续执行,那么数据量将会降低到千万级别。

当然,这个数据量,我们可以比较放心的打开这个群消息查询功能。

文章转载自:智客工坊

原文链接:https://www.cnblogs.com/lucky_hu/p/18065239

体验地址:引迈 - JNPF快速开发平台_低代码开发平台_零代码开发平台_流程设计器_表单引擎_工作流引擎_软件架构

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值