分布式基础概念

一、分布式基础概念

1.1微服务

微服务,拒绝大型单体应用,像以前的应用,把所有的代码页面都写到一个应用里面,这样容易导致一个问题,如果一处代码出现问题,就会导致我们整个应用不可用。所以,我们就希望,把我们的单体应用,基于业务边界进行服务微化和拆分,将一个大的单体应用拆成一个一个小模块,每一个小模块都可以作为一个微服务,这些模块合起来,最终完成一个单体应用,这些各个微服务,它们都是独立部署运行的,如果有一个出现问题,我们希望不会影响其他服务的正常运行。微服务之间也要进行通信,比如我们的订单服务,想要查询商品信息,我们就推荐使用http的形式,也就是订单服务,给商品服务,发送一个http的请求,把商品信息调过来就行了。

1.2 集群&分布式&节点

分布式是将不同的业务分布在不同的地方,比如,京东是一个分布式系统,它将各个业务,运行在不同的服务器,有购物车,订单商品。

集群是指将几台服务器集中在一起,实现同一业务。如用户系统,访问压力大的时候,一台服务器不够,我们就可以将用户系统部署到多个服务器,也就是每一个业务系统也可以做集群化。

节点:集群中的一个服务器

分布式中的每一个节点,都可以做集群。而集群并不一定就是分布式的。

1.3 远程调用

在分布式系统中,各个服务可能处于不同主机,但是服务之间不可避免的需要互相调用,我们称为远程调用。

SpringCloud中使用HTTP+JSON的方式完成远程调用。

 

各个服务,也就是我们拆分的各个功能模块,比如我把购物车这个功能模块放在A机器,订单模块放在B机器,商品放在C机器,那么服务之间不可避免的就会需要互相调用。比如订单模块,想要去商品模块查询一些商品信息,那么怎么办呢,我们把这个调用就称为远程调用。从订单模块给商品模块发送一个HTTP请求,它们之间在网络中传递数据,可以将其转成JSON格式,来进行网络传输,这样做的好处就是天然的跨平台性,JSON在任意平台都可以使用。

1.4 负载均衡

 

分布式系统中,A服务需要调用B服务,B服务在多台机器中都存在,A调用任意一个服务器均可完成功能。

为了使每一个服务器都不要太忙或者太闲,我们可以负载均衡的调用每一个服务器,提升网站的健壮性。

常见的负载均衡算法:

轮询:为第一个请求选择健康池中的第一个后端服务器,然后按顺序往后依次选择,直到最后一个,然后循环。

最小连接:优先选择连接数最少,也就是压力最小的后端服务器,在会话较长的情况下,可以考虑采取这种方式。

散列:根据请求源的IP的散列(Hash)来选择要转发的服务器。这种方式可以一定程度上保证特定用户能连接到相同的服务器。如果你的应用需要处理状态而要求用户能够连接到和之前相同的服务器,可以考虑采取这种方式。

1.5 服务注册/发现&注册中心

A服务调用B服务,A服务并不知道B服务当前在哪几台服务器有,哪些正常的,哪些服务已经下线。解决这个问题可以引入注册中心。

 

如果某些服务下线,我们其他人可以实时的感知到其他服务的状态,从而避免调用不可用的服务。

1.6 配置中心

 

当我们的项目拆分成各个微服务,每一个服务最终都有大量的配置,而且每一个服务都可能部署在多台机器上,比如说A服务在三台机器上都有,B服务在三台机器上都有。我们经常需要变更配置,我们可以让每个服务在配置中心获取自己的配置。这样如果我们想要改每一个服务的配置,我们只需要在配置中心改一处,A服务的这三天机器,自动获取配置的值,我们的配置就动态的修改了。

相当于,配置中心可以集中的管理微服务的配置信息,实现改一处配置,各个微服务自动的更改配置。

1.7 服务熔断&服务降级

在微服务架构中,微服务之间通过网络进行通信,存在相互依赖,当其中一个服务不可用时,有可能会造成雪崩效应。要防止这样的情况,必须要有容错机制来保护服务。

 

 

在微服务架构中,微服务之间通过网络进行通信,比如我们订单服务在A机器,商品服务在B机器,库存服务在C机器,如果我们想要下单,我们A机器就要给B机器发请求,来查订单里面的商品,商品服务又要给C机器发请求,查当前商品有没有库存,整个结束以后下单操作才能完成。但是,网络通信有不可靠和不稳定性,假设库存服务宕机了或者网络通信慢了,3秒5秒或者10秒才能返回,当库存服务出现故障,导致响应慢,商品服务就得等着,等到10s以后库存服务才能响应,也就是库存服务的不可用导致商品服务的不可用,然后,订单服务也要等着,最后导致不可用,相当于一个服务不可用,导致整个调用链在这一直阻塞。这样呢,如果是高并发请求,第一个请求过来是要调这一串服务,在这阻塞住10秒,得不出结果,第二个请求过来,也阻塞10秒,更多的请求过来,就导致请求积压,全部都阻塞在这,最终,会导致我们整个服务器的资源耗尽,一个服务的不可用导致整个服务器资源耗尽,所有服务均不可用,导致我们整个服务的雪崩现象。基于这个现象,我们就可以引出服务熔断,服务降级。

1.7.1 服务熔断

设置服务的超时,当被调用的服务经常失败到达某个阈值,我们可以开启断路保护机制,后来的请求不再去调用这个服务。本地直接返回默认的数据。

通俗讲,当我们的商品服务,想要调用库存服务的时候,库存服务经常超时怎么办呢,我给它指定一个超时时间,比如3秒,当你3秒,库存服务没返回,我就认为你库存服务失败了,接下来怎么办呢,如果经常库存服务失败,当失败达到某个阈值,比如10秒内100个请求全失败了,我们就可以开启断路保护机制,下一个请求进来了我直接不让你调用库存服务了,商品服务直接返回一些默认数据,或者直接返回结果为null等等,而不用去调用远程的库存服务,这样就不会导致请求积压,就不会导致整个服务雪崩的现象。

1.7.2 服务降级

在运维期间,当系统处于高峰期,系统资源紧张,我们可以让非核心业务降级运行。降级:某些服务不处理,或者简单处理【抛异常、返回null、调用mock数据、调用fallback处理逻辑】。

通俗讲,降级是整体把控,比如在我们运维期间,系统压力很大,资源紧张,我们可以让一些非核心业务,进行降级运行。所谓降级运行,比如说我们可以让这个服务停机,不处理,或者简单处理,我可以给你抛异常,或者返回null,我也不查数据库了,给你快速返回,这都是一些降级处理的手段。

1.8 API网关

 

在微服务架构中,API Gateway作为整体架构的重要组件,它抽象了微服务中都需要的公共功能,同时提供了客户端负载均衡,服务自动熔断,灰度发布,统一认证,限流流控,日志统计等丰富的功能,帮助我们解决很多API管理难题。

我们的项目是前后分离开发,前端给后台发送http请求的方式,来完成各种各样的功能。我们希望前端发来的所有请求,先到达一个地方叫做网关,这个网关可以对我们的所有请求,进行统一认证,比如看一下哪些请求是合法的,哪些请求是非法的,包括,限流,服务熔断,日志统计,负载均衡,灰度发布等等功能,网关就像是我们大商场的安检入口,从这个入口进来,能放行过来的请求,就是后台需要处理的,放行不过来的请求,后台也无需处理。包括在高并发的情况下,我们可以在网关级别,对其进行限流,比如以恒定的速率将请求流向后台服务集群,这样我们的服务集群就不会收到瞬时过大的请求流量,把我们的服务集群压垮。

视频教程

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值