高并发场景下的限流策略

tcc

       TCC 事务解决方案本质上是一种补偿的思路,它把事务运行过程分成 Try、Confirm/cancel 两个阶段,每个阶段由业务代码控制,这样事务的锁力度可以完全

       需要注意的是,TCC 事务和 2pc 的思想类似,但并不是 2pc 的实现,TCC 不再是两阶段提交,而只是它对事务的提交/回滚是通过执行一段 confirm/cancel 业务逻辑来实现,并且也并没有全局事务来把控整个事务逻辑。

高并发场景下的限流策略

什么是限流和降级

       在开发高并发系统时,有很多手段来保护系统:缓存、降级、限流。
当访问量快速增长、服务可能会出现一些问题(响应超时),或者会存在非核心服务影响到核心流程的性能时, 仍然需要保证服务的可用性,即便是有损服务。
       所以意味着我们在设计服务的时候,需要一些手段或者关键数据进行自动降级,或者配置人工降级的开关。

       缓存的目的是提升系统访问速度和增大系统处理的容量,可以说是抗高并发流量的银弹;
       降级是当服务出问题或者影响到核心流程的性能则需要暂时屏蔽掉某些功能,等高峰或者问题解决后再打开;而有些场景并不能用缓存和降级来解决,比如秒杀、抢购;写服务(评论、下单)、频繁的复杂查询,因此需要一种手段来限制这些场景的并发/请求量

降级

对于高可用服务的设计,有一个很重要的设计,那就是降级。降级一般有几种实现手段,自动降级和人工降级
\1. 通过配置降级开关,实现对流程的控制
\2. 前置化降级开关, 基于 OpenResty+配置中心实现降级
\3. 业务降级,在大促的时候,我们会有限保证核心业务的流程可用,也就是下单

限流

限流的目的是防止恶意请求流量、恶意攻击、或者防止流量超过系统峰值
限流是对资源访问做控制的一个组件或者功能,那么控制这块主要有两个功能:
限流策略和熔断策略,对于熔断策略,不同的系统有不同的熔断策略诉求,有得系统希望直接拒绝服务、有的系统希望排队等待、有的系统希望服务降级。限流服务
这块有两个核心概念:资源和策略
资源:被流量控制的对象,比如接口
策略:限流策略由限流算法和可调节的参数两部份组成
限流的目的是通过对并发访问/请求进行限速或者一个时间窗口内的请求进行限速来保护系统,一旦达到限制速率则可以拒绝服务(定向到错误页或者告知资源没有了)、排队或等待(秒杀、下单)、降级(返回兜底数据或默认数据或默认数据,如商品详情页库存默认有货)

限流和降级

       滑动窗口协议是传输层进行流控的一种措施,接收方通过通告发送方自己的窗口大小,从而控制发送方的发送速度,从而达到防止发送方发送速度过快而导致自己被淹没的目的。
       简单解释下,发送和接受方都会维护一个数据帧的序列,这个序列被称作窗口。发送方的窗口大小由接受方确定,目的在于控制发送速度,以免接受方的缓存不够大,而导致溢出,同时控制流量也可以避免网络拥塞。下面图中的 4,5,6 号数据帧已经
被发送出去,但是未收到关联的 ACK,7,8,9 帧则是等待发送。可以看出发送端的窗口大小为 6,这是由接受端告知的。此时如果发送端收到 4 号 ACK,则窗口的左边缘向右收缩,窗口的右边缘则向右扩展,此时窗口就向前“滑动了”,即数据帧10 也可以被发送
动态效果演示
https://media.pearsoncmg.com/aw/ecs_kurose_compnetwork_7/cw/content/inter

漏桶

桶本身具有一个恒定的速率往下漏水,而上方时快时慢的会有水进入桶内。当桶还未满时,上方的水可以加入。一旦水满,上方的水就无法加入。桶满正是算法中的一个关键的触发条件(即流量异常判断成立的条件)。而此条件下如何处理上方流下来的水,有两种方式
在桶满水之后,常见的两种处理方式为:

1)暂时拦截住上方水的向下流动,等待桶中的一部分水漏走后,再放行上方水。

2)溢出的上方水直接抛弃。

特点
\1. 漏水的速率是固定的
\2. 即使存在注水 burst(突然注水量变大)的情况,漏水的速率也是固定的

令牌桶( 能够解决突发流量)

       令牌桶算法是网络流量整形(Traffic Shaping)和速率限制(Rate Limiting)中最常使用的一种算法。典型情况下,令牌桶算法用来控制发送到网络上的数据的数目,并允许突发数据的发送。
       令牌桶是一个存放固定容量令牌(token)的桶,按照固定速率往桶里添加令牌; 令牌桶算法实际上由三部分组成:两个流和一个桶,分别是令牌流、数据流和令牌桶

限流算法的实际应用

Guava 的 的 RateLimiter 实现
在 Guava 中 RateLimiter 的实现有两种: Bursty 和 WarmUp
bursty
bursty 是基于 token bucket 的算法实现,比如
RateLimiter rateLimiter=RateLimiter.create(permitPerSecond); //创建一个 bursty
实例
rateLimiter.acquire(); //获取 1 个 permit,当令牌数量不够时会阻塞直到获取为止
WarmingUp
\1. 基于 Leaky bucket 算法实现
\2. QPS 是固定的
\3. 使用于需要预热时间的使用场景
RateLimiter create(double permitsPerSecond, long warmupPeriod, TimeUnit unit)
//创建一个 SmoothWarmingUp 实例;warmupPeriod 是指预热的时间
RateLimiter rateLimiter
=RateLimiter.create(permitsPerSecond,warmupPeriod,timeUnit);
rateLimiter.acquire();//获取 1 个 permit;可能会被阻塞止到获取到为止

差异化演示

public class TokenDemo {
private int qps;
private int countOfReq;
private RateLimiter rateLimiter;
public TokenDemo(int qps, int countOfReq) {
this.qps = qps;
this.countOfReq = countOfReq;
}
public TokenDemo processWithTokenBucket(){
rateLimiter=RateLimiter.create(qps);
return this;
}
public TokenDemo processWithLeakyBucket(){
rateLimiter=RateLimiter.create(qps,00,TimeUnit.MILLISECONDS);
return this;
}
private void processRequest(){
System.out.println("RateLimiter:"+rateLimiter.getClass());
long start=System.currentTimeMillis();
for(int i=0;i<countOfReq;i++){
rateLimiter.acquire();
}
long end=System.currentTimeMillis()-start;
System.out.println("处理请求数量:"+countOfReq+"," +
"耗时:"+end+"," +
"qps:"+rateLimiter.getRate()+"," +
"实际 qps:"+Math.ceil(countOfReq / (end / 1000.00)));
}
public void doProcess() throws InterruptedException {
for(int i=0;i<20;i=i+5){
TimeUnit.SECONDS.sleep(i);
processRequest();
}
}
public static void main(String[] args) throws InterruptedException
{
new TokenDemo(50,100).processWithTokenBucket().doProcess();
new TokenDemo(50,100).processWithLeakyBucket().doProcess();
}
}

分布式下的限流策略

技术选型
mysql:存储限流策略的参数等元数据

redis+lua:令牌桶算法实现

具体实现

参考 Redisson 中的令牌桶实现逻辑即可

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值