文章目录
HTTP Load Balancing
将请求转发到后端服务器
在开始使用NGINX将HTTP流量负载到一组服务器时,首先需要使用upstream
配置定义该组。配置放在http上下文中。
组中的服务器使用server指令配置(不要与定义运行在NGINX上的虚拟服务器的服务器块混淆)。例如,下面的配置定义了一个名为backend
的组,由三个服务器配置组成(可能在三个以上的实际服务器中解析):
http {
upstream backend {
server backend1.example.com weight=5;
server backend2.example.com;
server 192.0.0.1 backup;
}
}
要将请求传递给服务器组,组的名称在proxy_pass
指令中指定(或在这些协议的fastcgi_pass
、memcached_pass
、scgi_pass
或uwsgi_pass
指令中指定)。在下一个例子中,运行在NGINX上的虚拟主机将所有请求传递给上一个例子中定义的后端组:
server {
location / {
proxy_pass http://backend;
}
}
下面的示例结合了上面的两个片段,并展示了如何将HTTP请求代理到后端服务器组。这个组由三个服务器组成,其中两个运行同一个应用程序的实例,而第三个是备份服务器。因为upstream
块中没有指定负载均衡算法,NGINX使用默认算法Round Robin
:
http {
upstream backend {
server backend1.example.com;
server backend2.example.com;
server 192.0.0.1 backup;
}
server {
location / {
proxy_pass http://backend;
}
}
}
负载均衡模式
Nginx有多种负载均衡算法:
1. Round Robin
请求均匀地分布在各个服务器上,同时考虑了服务器的权重。默认情况下使用该方法(没有启用该方法的配置):
upstream backend {
# 无需配置,默认为round robin
server backend1.example.com;
server backend2.example.com;
}
2. Least Connections
请求发送到服务器的活动连接数最少,同样考虑到服务器权重:
upstream backend {
least_conn;
server backend1.example.com;
server backend2.example.com;
}
3. IP Hash
发送请求的服务器由客户机IP地址决定。在本例中,要么使用IPv4地址的前三个八位计算,要么使用整个IPv6地址来计算哈希值。该方法保证来自相同地址的请求到达相同的服务器,除非该服务器不可用
upstream backend {
ip_hash;
server backend1.example.com;
server backend2.example.com;
}
如果其中一台服务器需要暂时从负载平衡中删除,可以使用down
参数标记它,以保存当前客户机IP地址的无法请求此服务器。将由此服务器处理的请求自动发送到组中的下一个服务器:
upstream backend {
server backend1.example.com;
server backend2.example.com;
server backend3.example.com down;
}
4. Generic Hash
发送请求的服务器由用户定义的键决定,该键可以是文本字符串、变量或组合。例如,密钥可以是成对的源IP地址和端口,或者是一个URI,如下例所示:
upstream backend {
hash $request_uri consistent;
server backend1.example.com;
server backend2.example.com;
}
哈希指令的可选一致参数支持ketama
一致哈希负载平衡。根据用户定义的散列键值,请求均匀地分布在所有upstream
服务器上。如果将上游服务器添加到或从upstream
组中删除,则只重新映射几个键,在负载平衡缓存服务器或其他累积状态的应用程序的情况下,这些键可以最小化缓存丢失。
5. Random
每个请求将被传递到随机选择的服务器。
upstream backend {
random;
server backend1.example.com;
server backend2.example.com;
server backend3.example.com;
server backend4.example.com;
}
Server Weights
默认情况下,NGINX使用轮询方法在组中的服务器之间根据它们的权重分配请求。服务器配置weight
的权值参数在service
配置中设置;默认值为1:
upstream backend {
server backend1.example.com weight=5;
server backend2.example.com;
server 192.0.0.1 backup;
}
在这个例子中,backend1.example.com
的权重为5;其他两台服务器具有默认权重(1),但是IP地址为192.0.0.1的服务器被标记为备份服务器,除非其他两台服务器都不可用,否则不会接收请求。使用这种权重配置,每6个请求中就有5个发送到backend1.example.com
, 1个发送到backend2.example.com
。
TCP and UDP Load Balancing
配置反向代理
- 创建一个顶级的
stream {}
区域
stream {
# ...
}
- 在顶层
stream {}
上下文中为每个虚拟服务器定义一个或多个server {}
配置 - 在每个服务器的
server{}
配置块中,其中包含listen指令来定义服务器监听的IP地址或(和)端口
stream {
server {
listen 12345;
# ...
}
server {
listen 53 udp;
# ...
}
# ...
}
- 使用proxy_pass指令来定义代理服务器或服务器转发流量到哪一个
upstream
组
stream {
server {
listen 12345;
#TCP 数据将会被转发到 "stream_backend" 的后端组
proxy_pass stream_backend;
}
server {
listen 12346;
#TCP 数据将会被转发到backend.example.com:12346
proxy_pass backend.example.com:12346;
}
server {
listen 53 udp;
#UDP 数据将会被转发到 "dns_servers" 的后端组
proxy_pass dns_servers;
}
# ...
}
- 如果代理服务器有多个网卡,您可以选择配置NGINX绑定对应网卡,以便在连接到上游服务器时使用特定的源IP地址。
stream {
# ...
server {
listen 127.0.0.1:12345;
proxy_pass backend.example.com:12345;
# 绑定使用特定的网卡发送
proxy_bind 127.0.0.1:12345;
}
}
- NGINX可以将来自客户机和
upstream
连接的数据放在缓存区中。如果数据量很小,可以减少缓冲区,从而节省内存资源。如果有大量数据,可以增加缓冲区大小,以减少套接字读/写操作的数量。
stream {
# ...
server {
listen 127.0.0.1:12345;
proxy_pass backend.example.com:12345;
# 设置缓存区大小
proxy_buffer_size 16k;
}
}
配置TCP和UDP负载均衡
- 创建一组服务器,在
stream {}
上下文中定义一个或多个upstream {}
配置块,并为upstream
设置名称,例如,TCP服务器的stream_backend
和UDP服务器的dns_servers
stream {
# 需要保证stream_backend 与proxy_pass后的名字保持一致
upstream stream_backend {
# ...
}
upstream dns_servers {
# ...
}
# ...
}
- 用
upstream server
填充到upstream{}
。在upstream{}
块中,为每个upstream server
添加一个server指令,指定其IP地址或主机名(可以解析为多个IP地址)和一个必需的端口号。注意,你无需为每个服务器定义协议,因为它是由你在前面创建的server {}
中的listen指令中包含的参数为整个upstream
定义的
- Round Robin:默认情况下,NGINX使用循环算法来平衡流量,将流量按顺序引导到已配置的上游组中的服务器(无需配置)
- Least Connections:选择当前活动连接数量较少的服务器
- 为upstream配置负载均衡模式
TCP和UDP负载均衡示例
stream {
upstream stream_backend {
# 选择当前活动连接数量较少的服务器,受权重影响
least_conn;
# 权重
server backend1.example.com:12345 weight=5;
# 健康检测 max_fails:失败次数 fail_timeout:超时时间
server backend2.example.com:12345 max_fails=2 fail_timeout=30s;
# 最大并发连接数,默认为0,没有限制
server backend3.example.com:12345 max_conns=3;
}
upstream dns_servers {
least_conn;
server 192.168.136.130:53;
server 192.168.136.131:53;
server 192.168.136.132:53;
}
server {
listen 12345;
proxy_pass stream_backend;
# 与后端服务器建立连接超时
proxy_timeout 3s;
# 与后端服务器连接超时
proxy_connect_timeout 1s;
}
server {
listen 53 udp;
proxy_pass dns_servers;
}
server {
listen 12346;
proxy_pass backend4.example.com:12346;
}
}