前言
高并发下如何设计秒杀系统?这也是一个高频面试题。这个问题看似简单,但是里面的水很深,它考查的是高并发场景下,从前端到后端多方面的知识。
秒杀一般出现在商城的促销活动
中,指定了一定数量(比如:10个)的商品(比如:手机),以极低的价格(比如:0.1元),让大量用户参与活动,但只有极少数用户能够购买成功。
虽说秒杀只是一个促销活动,但对技术要求不低。下面给大家总结一下设计秒杀系统需要注意的9个细节。
1 瞬时高并发
一般在秒杀时间点
(比如:12点)前几分钟,用户并发量才真正突增,达到秒杀时间点时,并发量会达到顶峰。
但由于这类活动是大量用户抢少量商品的场景,必定会出现狼多肉少
的情况,所以其实绝大部分用户秒杀会失败,只有极少部分用户能够成功。
正常情况下,大部分用户会收到商品已经抢完的提醒,收到该提醒后,他们大概率不会在那个活动页面停留了,如此一来,用户并发量又会急剧下降。
所以这个峰值持续的时间其实是非常短的,这样就会出现瞬时高并发的情况,下面用一张图直观的感受一下流量的变化:
像这种瞬时高并发的场景,传统的系统很难应对,我们需要设计一套全新的系统。可以从以下几个方面入手:
-
页面静态化
-
CDN加速
-
缓存
-
mq异步处理
-
限流
-
分布式锁
秒杀活动通常时间很短,并发很高,如果跟原网站系统部署在一起,可能让原网站瞬间瘫痪。所以推荐独立部署秒杀程序,分配独立的域名。
2. 页面静态化
活动页面 是用户流量的第一入口,所以是并发量最大的地方。
如果这些流量都能直接访问服务端,恐怕服务端会因为承受不住这么大的压力,而直接挂掉。
活动页面 绝大多数内容是固定的,比如:商品名称、商品描述、图片等。
为了减少不必要的服务端请求,通常情况下,会对活动页面做静态化
处理。用户浏览商品等常规操作,并不会请求到服务端。只有到了秒杀时间点,并且用户主动点了秒杀按钮才允许访问服务端。
这样能过滤大部分无效请求。
但只做页面静态化还不够,因为用户分布在全国各地,有些人在北京,有些人在成都,有些人在深圳,地域相差很远,网速各不相同。
如何才能让用户最快访问到活动页面呢?
这就需要使用 CDN
即内容分发网络。
使用户就近获取所需内容,降低网络拥塞,提高用户访问响应速度和命中率。
3 秒杀 倒计时
秒杀倒计时 也需要特殊的设计。
- 秒杀开始之前,CDN节点上的JS文件,它的功能是先获取 北京时间;
可以通过请求 第三方的接口 获取到 北京时间,以缓解 自身服务器的压力,
例如 GET 请求 该链接 https://www.beijing-time.org/t/time.asp 可以获取到 北京时间:
t0=new Date().getTime();
nyear=2024;
nmonth=6;
nday=12;
nwday=3;
nhrs=14;
nmin=37;
nsec=21;
# 对响应结果做出说明:
- nyear: 年份
- nmonth: 月份
- nday:日
- nwday: 星期几
- nhrs: 时
- nmin: 分
- nsec: 秒
需要注意的是,本身服务器也需要 提供给一个 替代接口, 以防止 上述 第三方那个接口无法使用时 进行备用。
- 然后再HTML页面上生成倒计时的时钟,直到 秒杀开始 的时候,页面自动刷新,于此同时后台程序在CDN节点上面 更新了JS文件的内容。此时 加载到最新的js文件,于是js文件生成 秒杀按钮,用户点击按钮之后,js就会向后台程序发出秒杀请求。
在秒杀之前,任何顾客都不能发起秒杀请求。
为了避免 秒杀之前 用户提前 获取 下单页面的URL路径
,所以我们需要对 下单页面 实现 动态化
,
例如在秒杀开始之后,服务端生成特殊规格的随机数,然后把这些随机数保存在redis上面。那么秒杀的时候,URL地址就要带上这些随机数,才能进入到下单的页面。这样就可以避免秒杀之前出现提前下单的问题了。如果秒杀没有开始,任何人不得进入到下单页面。
4 读多写少
在秒杀的过程中,系统一般会先查一下库存是否足够,如果足够才允许下单,写数据库。
如果不够,则直接返回该商品已经抢完。
由于大量用户抢少量商品,只有极少部分用户能够抢成功,所以绝大部分用户在秒杀时,库存其实是不足的,系统会直接返回该商品已经抢完。
这是非常典型的:读多写少
的场景。
如果有数十万的请求过来,同时通过 数据库 查缓存是否足够,此时数据库可能会挂掉。因为数据库的连接资源非常有限,比如:mysql,无法同时支持这么多的连接。
而应该改用 缓存
,比如:redis。
即便用了redis,也需要部署 多个节点。
5 缓存问题
通常情况下,我们需要在redis中保存商品信息,里面包含:商品id、商品名称、规格属性、库存等信息,
同时 数据库 中也要有相关信息,毕竟 缓存 并不完全可靠。
用户在点击秒杀按钮,请求秒杀接口的过程中,需要传入的 商品id 参数,然后 服务端 需要 校验该商品 是否合法。
大致流程如下图所示:
根据商品id,先从缓存中查询商品,如果商品存在,则参与秒杀。如果不存在,则需要从数据库中查询商品,如果存在,则将商品信息放入缓存,然后参与秒杀。如果商品不存在,则直接提示失败。
这个过程表面上看起来是OK的,但是如果深入分析一下会发现一些问题。
5.1 缓存击穿
比如商品A第一次秒杀时,缓存中是没有数据的,但数据库中有。虽说上面有如果从数据库中查到数据,则放入缓存的逻辑。
然而,在高并发下,同一时刻会有大量的请求,都在秒杀同一件商品,这些请求 同时 去查缓存中没有数据,然后 又同时 访问数据库。结果悲剧了,数据库可能扛不住压力,直接挂掉。
如何解决这个问题呢?
这就需要 加锁
,最好使用分布式锁
。
当然,针对这种情况,补充手段是 在项目启动之前,先把缓存进行预热
。即事先把所有的商品,同步到缓存中,这样商品基本都能直接从缓存中获取到,就不会出现缓存击穿的问题了。
5.2 缓存穿透
如果有大量的请求传入的 商品id, 假设 是 数据库中 压根就不存在的 商品id,那么在 缓存中 和也不可能存在,那这些请求不就每次都会穿透过缓存,而直接访问数据库了。
由于前面已经加了锁,所以即使这里的 并发量很大,也 不会 导致 数据库 直接挂掉。
但是 很显然这些请求的处理性能并不好, 即 用户体验不够好, 等待的时候过长,有没有更好的解决方案?
这时可以想到布隆过滤器
。
- 布隆过滤器
布隆过滤器(Bloom Filter)是1970年由 布隆 提出的。它实际上是一个很长的 二进制向量 和一系列hash函数。
布隆过滤器可以用于 检索一个元素是否在一个集合中。
优点: 是 空间效率 和 查询时间 都比一般的算法要好的多,
缺点: 是有一定的 误识别率 和 删除困难。
通过上图的 布隆过滤器我们可以得知, 如果 只有当 索引为 3、5、7的值都为1
, 才能断定 你好 位于 集合中。
系统根据商品id,先从布隆过滤器中查询该id是否存在,如果存在则允许从缓存中查询数据,如果不存在,则直接返回失败。
虽说该方案可以解决缓存穿透问题,但是又会引出另外一个问题:布隆过滤器 中的数据 如何和 缓存 中的数据保持一致?
这就要求,如果缓存中数据有更新,则要及时同步到布隆过滤器中。如果数据同步失败了,还需要增加重试机制,而且跨数据源,能保证数据的实时一致性吗?
显然是不行的。
所以 布隆过滤器 绝大部分使用在缓存数据 更新很少 的场景中。
6 库存问题
对于库存问题看似简单,实则里面还是有些东西。
真正的秒杀商品的场景,不是说扣完库存,就完事了,如果用户在一段时间内,还没完成支付,扣减的库存是要加回去的。
所以,在这里引出了一个预扣库存
的概念,预扣库存的主要流程如下:
扣减库存中除了上面说到的预扣库存
和回退库存
之外,还需要特别注意的是库存不足和库存超卖问题。
6.1 数据库扣减库存
使用数据库扣减库存,是最简单的实现方案了,假设扣减库存的sql如下:
update product set stock=stock-1 where id=123;
这种写法对于扣减库存是没有问题的,但如何控制库存不足的情况下,不让用户操作呢?
这就需要在update之前,先查一下库存是否足够了。
伪代码如下:
int stock = mapper.getStockById(123);
if(stock > 0) {
int count = mapper.updateStock(123);
if(count > 0) {
addOrder(123);
}
}
大家有没有发现这段代码的问题?
没错,查询操作和更新操作 不是原子性 的,会导致在并发的场景下,出现库存超卖的情况。
有人可能会说,这样好办,加把锁,不就搞定了,比如使用 synchronized
关键字。
确实,可以,但是 性能不够好。
还有更优雅的处理方案,即基于数据库的乐观锁,这样会少一次数据库查询,而且能够天然的保证数据操作的原子性。
只需将上面的sql稍微调整一下:
update product set stock=stock-1 where id=product and stock > 0;
在sql最后加上:stock > 0
,就能保证不会出现超卖的情况。
但需要频繁访问数据库,我们都知道 数据库连接 是非常昂贵的资源。
在高并发的场景下,可能会造成系统雪崩。而且,容易出现多个请求,同时竞争行锁的情况,造成相互等待,从而出现死锁的问题。
6.2 redis扣减库存
redis的incr
方法是原子性的,可以用该方法扣减库存。伪代码如下:
boolean exist = redisClient.query(productId,userId);
if(exist) {
return -1;
}
int stock = redisClient.queryStock(productId);
if(stock <=0) {
return 0;
}
redisClient.incrby(productId, -1);
redisClient.add(productId,userId);
return 1;
代码流程如下:
-
先判断该用户有没有秒杀过该商品,如果已经秒杀过,则直接返回-1。
-
查询库存,如果库存小于等于0,则直接返回0,表示库存不足。
-
如果库存充足,则扣减库存,然后将本次秒杀记录保存起来。然后返回1,表示成功。
估计很多小伙伴,一开始都会按这样的思路写代码。但如果仔细想想会发现,这段代码有问题。
有什么问题呢?
如果在高并发下,有多个请求同时查询库存,当时都大于0。由于查询库存和更新库存非原则操作,则会出现库存为负数的情况,即库存超卖
。
当然有人可能会说,加个synchronized
不就解决问题?
调整后代码如下:
boolean exist = redisClient.query(productId,userId);
if(exist) {
return -1;
}
synchronized(this) {
int stock = redisClient.queryStock(productId);
if(stock <=0) {
return 0;
}
redisClient.incrby(productId, -1);
redisClient.add(productId,userId);
}
return 1;
加synchronized
确实能解决库存为负数问题,但是这样会导致 接口性能
急剧下降,每次查询都需要竞争同一把锁,显然不太合理。
为了解决上面的问题,代码优化如下:
boolean exist = redisClient.query(productId,userId);
if(exist) {
return -1;
}
if(redisClient.incrby(productId, -1)<0) {
return 0;
}
redisClient.add(productId,userId);
return 1;
该代码主要流程如下:
-
先判断该用户有没有秒杀过该商品,如果已经秒杀过,则直接返回-1。
-
扣减库存,判断返回值是否小于0,如果小于0,则直接返回0,表示库存不足。
-
如果扣减库存后,返回值大于或等于0,则将本次秒杀记录保存起来。然后返回1,表示成功。
该方案咋一看,好像没问题。
但如果在高并发场景中,有多个请求同时扣减库存,大多数请求的incrby操作之后,结果都会小于0。
虽说,库存出现负数,不会出现超卖的问题
。但由于这里是预减库存,如果负数值负的太多的话,后面万一要回退库存时,就会导致库存不准。
那么,有没有更好的方案呢?
6.3 lua脚本扣减库存
我们都知道lua脚本,是能够保证原子性的,它跟redis一起配合使用,能够完美解决上面的问题。
lua脚本有段非常经典的代码:
StringBuilder lua = new StringBuilder();
lua.append("if (redis.call('exists', KEYS[1]) == 1) then");
lua.append(" local stock = tonumber(redis.call('get', KEYS[1]));");
lua.append(" if (stock == -1) then");
lua.append(" return 1;");
lua.append(" end;");
lua.append(" if (stock > 0) then");
lua.append(" redis.call('incrby', KEYS[1], -1);");
lua.append(" return stock;");
lua.append(" end;");
lua.append(" return 0;");
lua.append("end;");
lua.append("return -1;");
该代码的主要流程如下:
-
先判断商品id是否存在,如果不存在则直接返回。
-
获取该商品id的库存,判断库存如果是-1,则直接返回,表示不限制库存。
-
如果库存大于0,则扣减库存。
-
如果库存等于0,是直接返回,表示库存不足。
7 分布式锁
之前我提到过,在秒杀的时候,需要先从缓存中查商品是否存在,如果不存在,则会从数据库中查商品。如果数据库中,则将该商品放入缓存中,然后返回。如果数据库中没有,则直接返回失败。
大家试想一下,如果在高并发下,有大量的请求都去查一个缓存中不存在的商品,这些请求都会直接打到数据库。数据库由于承受不住压力,而直接挂掉。
那么如何解决这个问题呢?
这就需要用redis分布式锁了。
7.1 setNx加锁
使用redis的分布式锁,首先想到的是setNx
命令。
if (jedis.setnx(lockKey, val) == 1) {
jedis.expire(lockKey, timeout);
}
用该命令其实可以加锁,但和后面的设置超时时间是分开的,并非原子操作。
假如加锁成功了,但是设置超时时间失败了,该lockKey就变成永不失效的了。在高并发场景中,该问题会导致非常严重的后果。
那么,有没有保证原子性的加锁命令呢?
7.2 set加锁
使用redis的set命令,它可以指定多个参数。
String result = jedis.set(lockKey, requestId, "NX", "PX", expireTime);
if ("OK".equals(result)) {
return true;
}
return false;
其中:
-
lockKey:锁的标识
-
requestId:请求id
-
NX:只在键不存在时,才对键进行设置操作。
-
PX:设置键的过期时间为 millisecond 毫秒。
-
expireTime:过期时间
由于该命令只有一步,所以它是原子操作。
7.3 释放锁
接下来,有些朋友可能会问:在加锁时,既然已经有了lockKey锁标识,为什么要需要记录requestId呢?
答:requestId是在释放锁的时候用的。
if (jedis.get(lockKey).equals(requestId)) {
jedis.del(lockKey);
return true;
}
return false;
在释放锁的时候,只能释放自己加的锁,不允许释放别人加的锁。
这里为什么要用requestId,用userId不行吗?
答:如果用userId的话,假设本次请求流程走完了,准备删除锁。此时,碰巧锁到了过期时间失效了。而另外一个请求,巧合使用的相同userId加锁,会成功。而本次请求删除锁的时候,删除的其实是别人的锁了。
当然使用lua脚本也能避免该问题:
if redis.call('get', KEYS[1]) == ARGV[1] then
return redis.call('del', KEYS[1])
else
return 0
end
它能保证查询锁是否存在和删除锁是原子操作。
7.4 自旋锁
上面的加锁方法看起来好像没有问题,但如果你仔细想想,如果有1万的请求同时去竞争那把锁,可能只有一个请求是成功的,其余的9999个请求都会失败。
在秒杀场景下,会有什么问题?
答:每1万个请求,有1个成功。再1万个请求,有1个成功。如此下去,直到库存不足。这就变成 均匀分布的 秒杀了,跟我们想象中的不一样。
如何解决这个问题呢?
答:使用 自旋锁
。
try {
Long start = System.currentTimeMillis();
while(true) {
String result = jedis.set(lockKey, requestId, "NX", "PX", expireTime);
if ("OK".equals(result)) {
return true;
}
long time = System.currentTimeMillis() - start;
if (time>=timeout) {
return false;
}
try {
Thread.sleep(50);
} catch (InterruptedException e) {
e.printStackTrace();
}
}
} finally{
unlock(lockKey,requestId);
}
return false;
在规定的时间,比如500毫秒内,自旋不断尝试加锁,如果成功则直接返回。如果失败,则休眠50毫秒,再发起新一轮的尝试。如果到了超时时间,还未加锁成功,则直接返回失败。
7.5 redisson
除了上面的问题之外,使用redis分布式锁,还有:
- 锁竞争问题、
- 续期问题、
- 锁重入问题、
- 多个redis实例加锁问题等。
这些问题使用redisson
可以解决,Redisson是一个基于Redis实现的分布式工具,有基本分布式对象和高级又抽象的分布式服务,为每个试图再造分布式轮子的程序员带来了大部分分布式问题的解决办法。
8 mq异步处理
我们都知道在真实的秒杀场景中,有三个核心流程:而这三个核心流程中,真正并发量大的是秒杀功能,下单和支付功能实际并发量很小。所以,我们在设计秒杀系统时,有必要把下单和支付功能从秒杀的主流程中拆分出来,特别是下单功能要做成mq异步处理的。而支付功能,比如支付宝支付,是业务场景本身保证的异步。
于是,秒杀后下单的流程变成如下:如果使用mq,需要关注以下几个问题:
8.1 消息丢失问题
秒杀成功了,往mq发送下单消息的时候,有可能会失败。原因有很多,比如:网络问题、broker挂了、mq服务端磁盘问题等。这些情况,都可能会造成消息丢失。
那么,如何防止消息丢失呢?
答:加一张 消息发送表
。
在生产者发送mq消息之前,先把该条消息写入消息发送表,初始状态是待处理,然后再发送mq消息。消费者消费消息时,处理完业务逻辑之后,再回调生产者的一个接口,修改消息状态为已处理。
如果生产者把消息写入消息发送表之后,再发送 消息 到mq服务端的过程中失败了,造成了消息丢失。
这时候,要如何处理呢?
答:使用job,增加 重试机制
。
用job每隔一段时间去查询消息发送表中状态为待处理的数据,然后重新发送mq消息。
8.2 重复消费问题
本来消费者消费消息时,在ack应答的时候,如果网络超时,本身就可能会消费重复的消息。但由于消息发送者增加了重试机制,会导致消费者重复消息的概率增大。
那么,如何解决重复消息问题呢?
答:加一张 消息处理表
。
消费者读到消息之后,先判断一下消息处理表,是否存在该消息,如果存在,表示是重复消费,则直接返回。如果不存在,则进行下单操作,接着将该消息写入消息处理表中,再返回。
有个比较关键的点是:下单 和 写消息处理表,要放在同一个事务中,保证原子操作。
8.3 垃圾消息问题
这套方案表面上看起来没有问题,但如果出现了 消息 消费失败 的情况。比如:由于某些原因,消息消费者下单一直失败,一直不能回调状态变更接口,这样 job会不停的 重试 发消息。最后,会产生大量的垃圾消息。
那么,如何解决这个问题呢?每次在job重试时,需要先判断一下 消息发送表 中该 消息 的 发送次数 是否达到最大限制,如果达到了,则直接返回。如果没有达到,则将次数加1,然后发送消息。
这样如果出现异常,只会产生少量的垃圾消息,不会影响到正常的业务。
8.4 延迟消费 问题
通常情况下,如果用户秒杀成功了,下单之后,在15分钟之内还未完成支付的话,该订单会被自动取消,回退库存。
那么,在15分钟内未完成支付,订单被自动取消的功能,要如何实现呢?
我们首先想到的可能是job,因为它比较简单。
但job有个问题,需要每隔一段时间处理一次,实时性不太好。
还有更好的方案?
答:使用 延迟队列
。
我们都知道 rocketmq
,自带了 延迟队列 的功能。
下单时 消息生产者 会先生成订单,此时状态为 待支付,然后会向 延迟队列 中发一条消息。
达到了延迟时间,消息消费者 读取消息之后,会查询该订单的状态是否为 待支付。
如果是待支付状态,则会 更新订单状态 为 取消状态。
如果不是待支付状态,说明该订单已经支付过了,则直接返回。
9 如何限流?
有些高手,并不会像我们一样老老实实,通过秒杀页面点击秒杀按钮,抢购商品。他们可能在自己的服务器上,模拟正常用户登录系统,跳过秒杀页面,直接调用秒杀接口。
如果是我们手动操作,一般情况下,一秒钟 只能 点击一次秒杀按钮。但是如果是 服务器,一秒钟可以请求成上千接口。这种差距实在太明显了,如果不做任何限制,绝大部分商品可能是被机器抢到,而非正常的用户,有点不太公平。
所以,我们有必要 识别 这些 非法请求,做一些限制。那么,我们该如何现在这些非法请求呢?
目前有两种常用的 限流方式:
-
基于nginx限流
-
基于redis限流
9.1 对同一用户限流
为了防止某个用户,请求接口次数过于频繁,可以只针对该用户做限制。限制同一个用户id,比如每分钟只能请求5次接口。
9.2 对同一ip限流
有时候只对某个用户限流是不够的,有些高手可以模拟多个用户请求,这种nginx就没法识别了。
这时需要加同一ip限流功能。限制同一个ip,比如每分钟只能请求5次接口。
但这种限流方式可能会有 误杀
的情况,比如同一个 公司 或 网吧 的 ip是相同的,如果里面有 多个正常用户同时发起请求,有些用户可能会被限制住。
9.3 对接口限流
别以为限制了用户 和 ip 就万事大吉,有些高手甚至可以使用 代理,每次都请求都换一个ip。
这时可以限制请求的 接口 总次数。
在高并发场景下,这种限制对于系统的 稳定性 是 非常有必要的。
但可能由于有些非法请求次数太多,达到了该接口的请求上限,而影响其他的正常用户访问该接口。
看起来有点得不偿失。
9.4 加验证码
相对于上面三种方式,加验证码的方式可能更精准一些,同样能限制用户的访问频次,但好处是不会存在误杀的情况。
通常情况下,用户在请求之前,需要先输入验证码。用户发起请求之后,服务端会去校验该验证码是否正确。只有正确才允许进行下一步操作,否则直接返回,并且提示验证码错误。
此外,验证码一般是一次性的,同一个验证码只允许使用一次,不允许重复使用。
普通验证码,由于生成的数字或者图案比较简单,可能会被破解。优点是生成速度比较快,缺点是有安全隐患。
还有一个验证码叫做:移动滑块
,它生成速度比较慢,但比较安全,是目前各大互联网公司的首选。
9.5 提高业务门槛
上面说的加验证码虽然可以限制非法用户请求,但是有些影响用户体验。用户点击秒杀按钮前,还要先输入验证码,流程显得有点繁琐,秒杀功能的流程不是应该越简单越好吗?
其实,有时候达到某个目的,不一定非要通过技术手段,通过业务手段也一样。
12306刚开始的时候,全国人民都在同一时刻抢火车票,由于并发量太大,系统经常挂。后来,重构优化之后,将购买周期放长了,可以提前20天购买火车票,并且可以在9点、10、11点、12点等整点购买火车票。调整业务之后(当然技术也有很多调整),将之前集中的请求,分散开了,一下子降低了用户并发量。
回到这里,我们通过提高业务门槛,比如只有会员才能参与秒杀活动,普通注册用户没有权限。或者,只有等级到达3级以上的普通用户,才有资格参加该活动。
这样简单的提高一点门槛,即使是黄牛党也束手无策,他们总不可能为了参加一次秒杀活动,还另外花钱充值会员吧?