Nginx: 负载均衡基础配置, 加权轮序, hash算法, ip_hash算法, least_conn算法

负载均衡

  • 在真正的反向代理场景中,必然涉及到的一个概念,就是负载均衡
  • 所谓负载均衡,也就是将Nginx的请求发送给后端的多台应用程序服务器
  • 通常的应用程序服务器,后面的每台服务器都是一个同等的角色,提供相同的功能
  • 用户发送一个request 到我们的这个负载均衡器(Nginx)
  • 负载均衡器会将这个请求发给后端的任何一台服务器
  • 它会依据一定的负载均衡算法去后端的三台服务器中选择其中的一台
  • 从而将这个请求发送给后端这个应用程序服务器
  • 由应用程序服务器处理完之后,再次的返回给负载均衡器
  • 由负载均衡器再把这个响应的结果给传递给我们的用户
  • 在整个这样一个过程中,对于负载均衡器和后端的应用程序服务器来说
  • 它这三台服务器提供的角色通常来说是一样的
  • 比如说在某些场景下,后端的这个应用服务器可能都是一台mysql数据库服务器
  • 在mysql数据库服务器中,通常我们用的最多的一种性能是读请求读,请求压力会很大
  • 在一组两重的架构中,第一台服务器可能是用来写的,第二台和第三台都是用来读的
  • 当然很多情景下,我们第一台服务器也可以用来读
  • 这个时候所有的读请求,就都可以平均的分发到我们后端这些服务器

1 )场景举例1

  • 现在,后端的一个应用程序服务器提供了一个电商站点,
  • 这个时候我的用户可能需要去登录到自己的账户中,然后去买商品
  • 用户会首先发起个请求到负载均行器,负载均行器再发到应用服务器
  • 这个时候我们用户登录账户之后,账号信息保存在应用服务器一上
  • 这个时候我们的用户就去浏览我们的网页,选商品,之后,加到购物车
  • 这个时候,假如他一刷新页面,这会触发一个新的HTTP请求
  • 这个请求也会到负载均容器,但被分配到第二台服务器上了,这样用户信息丢失了
  • 后续操作可能会要重新登录,这种场景对用户来说是不能接受的
  • 对于这样一种情形来说,涉及到后端的三台应用服务器如何去对session进行共享?
  • 这是负载均衡器需要面临的第一个问题

2 )场景举例2

  • 负载均衡器在分发请求的时候,三台服务器,如果所有的角色能力都一样,服务器硬件规格也一样
  • 可能是第一次发给第一,第二次发给第二,第三次发给第三,第四次再发给第一,这样轮询
  • 假如,服务器有些性能处理能力很强,有些性能处理很弱,如何合理的分发这样一些请求 ?
  • 也就是说负载均衡器在选择后端的应用服务的时候,要依据一定的算法, 算法设定的优劣
  • 对于负载均衡的效果起到了决定性的影响的,其实没有一个绝对的优劣之分
  • 所有的这些负载均衡的算法,都各自有一些不同的适用场景,需要去结合业务来进行选择使用

3 )场景举例3

  • 在反向代理的场景下,这些应用服务器上面,某些缓存信息是如何结合Nginx进行保存的?

Nginx 对上游服务负载均衡

1 )回顾 upstream 段

  • 语法:upstream name { … }

  • 默认值:无

  • 上下文:http

  • 示例

    upstream {
    	......
    	......
    }
    
  • 指令:

    • server address [parameters];
      • weight=number
      • max_conns=nuimber
      • fail_timeout=time
      • max_fails=number
      • backup
      • down
    • keepalive connections;
    • keepalive_request number;
    • keepalive_timeout time;
    • queue;
  • 配置示例

upstream back_end {
	server 127.0.0.1:8080 weight=3 max_conns=1000 fail_timeout=10s max_fails = 2;
	keepalive 32;
	keepalive_requests 50;
	keepalive_timeout 30s;
}

2 ) 实际部署

2.1 应用服务器 (使用 nginx 模拟),比如当前ip地址为:192.168.184.20

server {
	listen 8020;
	location / {
		return 200 'Return Result For Server 8020\n';
	}
}

server {
	listen 8021;
	location / {
		return 200  'Return Result For Server 8021\n';
	}
}

server {
	listen 8022;
	location / {
		return 200 'Return Result For Server 8022\n';
	}
}

这里 模拟3台 应用服务器

2.2 nginx 服务器

upstream demo_server {
	server 192.168.184.20:8020 weight=3 max_conns=50 fail_timeout=10s max_fails=2;
	server 192.168.184.20:8021 weight=2;
	server 192.168.184.20:8022 weight=1;
}

server {
	listen 			80;
	server_name 	balance.baidu.com;
	location /balance/ {
		proxy_pass		http://demo_server;
	}
}

哈希算法

  • 上面的示例,演示的是加权轮询的方式,在分配请求的时候,会保持这个分配比例,而非严格按照顺序分配
  • 现在,来看新的一个负载均衡算法 — 哈希算法
  • 定义:哈希算法是将任意长度的二进制值映射为较短的固定长度的二进制值,这个小的二进制值我们称之为哈希值,散落明文到哈希值的映射是不可逆的
  • 简单来说,哈希算法就是根据一个固定内容的值,经过哈希运算之后,可以得到一个唯一的值
  • 哈希算法有很多种,但是它的思想都是一样的,总的来说,它是根据一个内容经过一定的哈希值换算之后得到一个固定长度的一个字符串
  • 对一个文件内容不变的文件来说,它永远会得到一个相同的字符串值,这个算法可以解决文件传输前后校验是否一致的场景
  • 比如说,现在有两个文件,左侧的上和下,是不一样的,别看多了一行,就是多了一个字节,计算出来的内容都不会一样

1 )哈希指令

  • 语法:hash key [consistent];
    • 这个key 通常是一个内容, 可以使用变量,特定内容的变量
    • 可以根据请求头的内容来进行哈希运算,
    • 如果头部的某些内容来源一样,哈希值一定一致
    • 或者根据客户端的ip
  • 默认值:无
  • 上下文:upstream

2 )配置示例

2.1 这里使用Nginx模拟应用服务器

server {
	listen 	10020;
	location / {
		return 200 'Return Result For Server 10020\n';
	}
}

server {
	listen 	10010;
	location / {
		return 200 'Return Result For Server 10010\n';
	}
}

2.2 应用服务器

upstream demo_server_1 {
	hash 		$request_uri;
	server  	192.168.184.20:10020;
	server  	192.168.184.20:10010;
}

server {
	listen 		80;
	server_name balance_hash.baidu.com;
	location / {
		proxy_pass http://demo_server_1;
	}
}
  • 在上述两台服务器中,假如,请求在一台服务器上有缓存,在另一台是用不了的
  • 某一些情形下,为了保证来自同一个客户端的请求,总是能够分配到指定的一台服务器上
  • 可能需要根据这样一个哈希算法,把其永远分配到某一个服务器上,而不会再调度到另外一台服务器上
  • 其实最初它的一个设计应用是在缓存中用的比较多,像CDN这样的场景

IP Hash 算法

  • 哈希算法是可以指定各种不同的key来进行一个哈希运算,这适用于我们一些比较复杂的一个应用场景
  • 我们有一些特殊需求,比如,根据某一些应用层的信息,HTTP请求投入的某一些具体信息
  • 或者是请求行中的某一些具体信息来进行一个哈希运算
  • 它就是根据IP进行哈希运算,因为从这个算法的名称上也能够看出来

1 ) ip_hash 指令

  • 语法:ip_hash

  • 默认值:无

  • 上下文:upstream

  • 示例配置

    upstream demo_server_1 {
    	ip_hash    # 只加这一个配置就行
    	server  	192.168.184.20:10020;
    	server  	192.168.184.20:10010;
    }
    
  • 其实, ip_hash 指令是为了解决Nginx和后端应用程序服务器的一个 session 保持的

  • 它其实对出的一个应用场景,也是对于这种 session 保持的解决而生的

  • 某一些客户端在请求完服务器之后,常会有cookie信息一些

  • 对应到服务器端的时候,会有 session 信息, 对于不同的用户来说是不同的

  • 对于固定的客户端来说,使用ip hash这样一种负载运用算法来进行 session 保持

  • 无疑是一个简错的选择

最少连接数算法

  • 不管是 hash 还是 ip_hash,还是加权轮循的负载均衡算法,其实都忽略了一个重要的事实
  • 对于这些算法来说,没有将后端应用服务器当前的一个负荷状况给考虑在内
  • 只是根据我们从用户发来的请求做一些负带均衡算法的挑选或者是加权轮型就更简单粗暴了
  • 不会把任何因素考虑在内,而只是简单的将请求逐个分发
  • 包括 hash 或者 ip_hash,他们只能根据某一些特定的属性来对后端进行分发的
  • 但是这些属性也仅仅是来自于用户的请求,其实这样一些场景是不合理的
  • 比如说,现在应用服务器一的处理能力很强,应用服务器二和三处理能力特别的弱
  • 你看之前的这些算法就不合理了
  • 都没有将后端服务器的一个当前运行状态就是作为服务器分发请求的一个策略
  • 现在引入最少连接算法,它考虑上游服务器的一个情况所决定的一种算法

1 )最少连接算法

  • 从上游服务器,挑选一台当前已建立连接数最少的分配请求
    • Nginx 在收到用户请求之后,在如何去挑选后端应用服务器的时候
    • 会去考虑当前这个应用服务器具体已经建立了多少个连接,已经正在处理多少用户请求
    • 他会找最少的,将请求分发给这个
    • 在某些情形下,总是挑选当前后端应用服务器正在处理连接数最少的那台进行分发请求
  • 极端情形下退化为 rr 算法
    • 当服务器分配数都一样的场景下
    • 会退化到轮循算法,逐个分发

1.1 least_conn 指令

  • 模块 ngx_http_upstream_least_conn_module
  • 禁用通过 --without-http_upstream_least_conn_module
  • 语法:least conn;
  • 默认值:无
  • 上下文:upstream
  • 基于此算法的Nginx在挑选应用程序服务器的时候会找当前处理请求数最少的一个
  • 存在多个 worker 子进程的时候,Nginx 是一个 worker 子进程的情形下,就有一个work子进程
  • 每一次的请求它都会分配到不同的worker子进程中,不同的worker子进程,是怎么样知道每一个应用服务器,当前正在处理的请求有多少,包括它当前的一个响应状态是怎么样的
  • 也就是说,我们的后端应用服务器的一个具体状态信息,是没办法在不同的worker子进程之间共享的
  • 解决办法:在Nginx上去开辟出一块内存空间
    • worker 子进程在处理这个用户请求的时候,都会将后端对应的应用程序服务器的一个当前状态
    • 比如说它当前正在处理的一个用户连接数,访问失败的次数等服务器的一个共态信息给保存到共享内存中
    • 这样实现了最少连接的算法

1.2 zone 指令

  • 用于指定共享内存空间大小
  • 语法:zone name [size];
  • 默认值:无
  • 上下文:upstream
  • 示例
    upstream demo_server_1 {
    	zone        test     10M;
    	least_conn;
    	server  	192.168.184.20:10020;
    	server  	192.168.184.20:10010;
    }
    
  • 在某一些场景中会有用的,但是它用的也并不是很多
  • 18
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Nginx提供了多种负载均衡调度算法,可以根据实际需求选择适合的算法。以下是常见的Nginx负载均衡调度算法: 1. 轮询(Round Robin):默认的负载均衡算法,按照顺序将请求依次分配给后端服务器,循环往复。 2. 加权轮询(Weighted Round Robin):可以给每个后端服务器设置权重,权重越高的服务器获取到的请求数量就越多。 3. IP哈希(IP Hash):根据客户端的IP地址计算哈希值,将相同IP的请求发送到同一台后端服务器,实现会话保持。 4. 最少连接(Least Connections):将请求发送到当前连接数最少的后端服务器,以实现动态负载均衡。 5. 最快响应时间(Least Time):根据后端服务器的响应时间来选择目标服务器,将请求发送到响应时间最短的服务器上。 这些负载均衡算法可以通过在Nginx配置文件中的`upstream`块中设置`load balancing`指令来进行配置。例如: ```nginx http { upstream backend_servers { round-robin; # 使用轮询算法 server backend1.example.com; server backend2.example.com; } server { listen 80; location / { proxy_pass http://backend_servers; } } } ``` 在上述示例中,`round-robin`指令表示使用轮询算法进行负载均衡。你可以根据需要选择其他算法,并根据实际情况配置后端服务器的地址和权重等信息。 需要注意的是,Nginx负载均衡算法的选择应该根据具体的应用场景和需求来确定,以达到最佳的负载均衡效果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Wang's Blog

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值