我个人的Haproxy-1.7.9实践:安装,编译与测试(★firecat推荐,针对TCP四层负载均衡★)

https://www.haproxy.com/

http://pkgs.fedoraproject.org/repo/pkgs/haproxy/ ftp下载

http://cbonte.github.io/haproxy-dconv/ 官方文档


一、先来看看Haproxy的原理

以常见的TCP应用为例,负载均衡器在接收到第一个来自客户端的SYN请求时,会通过设定的负载均衡算法选择一个最佳的后端服务器,同时将报文中目标IP地址修改为后端服务器IP,然后直接转发给该后端服务器,这样一个负载均衡请求就完成了。从这个过程来看,一个TCP连接是客户端和服务器直接建立的,而负载均衡器只不过完成了一个类似路由器的转发动作。在某些负载均衡策略中,为保证后端服务器返回的报文可以正确传递给负载均衡器,在转发报文的同时可能还会对报文原来的源地址进行修改。整个过程下图所示。

wKioL1dfXEiy30hCAABEn10fvd8185.png



同理,七层负载均衡器也称为七层交换机,位于OSI的最高层,即应用层,此时负载均衡器支持多种应用协议,常见的有HTTP、FTP、SMTP等。七层负载均衡器可以根据报文内容,再配合负载均衡算法来选择后端服务器,因此也称为“内容交换器”。比如,对于Web服务器的负载均衡,七层负载均衡器不但可以根据“IP+端口”的方式进行负载分流,还可以根据网站的URL、访问域名、浏览器类别、语言等决定负载均衡的策略。例如,有两台Web服务器分别对应中英文两个网站,两个域名分别是A、B,要实现访问A域名时进入中文网站,访问B域名时进入英文网站,这在四层负载均衡器中几乎是无法实现的,而七层负载均衡可以根据客户端访问域名的不同选择对应的网页进行负载均衡处理。常见的七层负载均衡器有HAproxy、Nginx等。


这里仍以常见的TCP应用为例,由于负载均衡器要获取到报文的内容,因此只能先代替后端服务器和客户端建立连接,接着,才能收到客户端发送过来的报文内容,然后再根据该报文中特定字段加上负载均衡器中设置的负载均衡算法来决定最终选择的内部服务器。纵观整个过程,七层负载均衡器在这种情况下类似于一个代理服务器。整个过程如下图所示。

wKiom1dfW06APOX2AABGWCtgsH0727.png


对比四层负载均衡和七层负载均衡运行的整个过程,可以看出,在七层负载均衡模式下,负载均衡器与客户端及后端的服务器会分别建立一次TCP连接,而在四层负载均衡模式下,仅建立一次TCP连接。由此可知,七层负载均衡对负载均衡设备的要求更高,而七层负载均衡的处理能力也必然低于四层模式的负载均衡。


二、源码编译与安装

1、tar -zxf haproxy-1.7.9.tar.gz

2、cd haproxy-1.7.9

3、make TARGET=linux2628 PREFIX=/usr/local/haproxy

TARGET应该怎么填?TARGET指定编译对应的os对应的内核版本,通过命令”uname -r”查询Linux内核版本。源文件夹readme有针对平台的定义:

  - linux22     for Linux 2.2
  - linux24     for Linux 2.4 and above (default)
  - linux24e    for Linux 2.4 with support for a working epoll (> 0.21)
  - linux26     for Linux 2.6 and above
  - linux2628   for Linux 2.6.28, 3.x, and above (enables splice and tproxy)
  - solaris     for Solaris 8 or 10 (others untested)
  - freebsd     for FreeBSD 5 to 10 (others untested)
  - netbsd      for NetBSD
  - osx         for Mac OS/X
  - openbsd     for OpenBSD 5.7 and above
  - aix51       for AIX 5.1
  - aix52       for AIX 5.2
  - cygwin      for Cygwin
  - haiku       for Haiku
  - generic     for any other OS or version.
  - custom      to manually adjust every setting

4、make install PREFIX=/usr/local/haproxy

5、mkdir /usr/local/haproxy/conf

cd /usr/local/haproxy/conf

6、haproxy默认是不带配置文件的,需要自己在conf文件夹里新建和编辑配置文件
touch haproxy.cfg,内容如下

global #全局属性
    log 127.0.0.1 local0 info
    daemon  #以daemon方式在后台运行,推荐
    nbproc 1 #HAProxy启动时作为守护运行可创建的进程数,配合daemon参数使用,默认只启动一个进程,该值应小于cpu核数。
    maxconn 102400  #最大同时*连接
    pidfile /usr/local/haproxy/conf/haproxy.pid  #指定保存HAProxy进程号的文件
    stats socket /usr/local/haproxy/stats  #定义统计信息保存位置

defaults #默认参数
    mode tcp  #tcp/http模式
    retries 3
    timeout connect 5s  #连接server端超时5s
    timeout client 300s  #客户端响应超时50s
    timeout server 300s  #server端响应超时50s
    timeout check 300s   #设置对后端服务器检测超时时间,即心跳50s

frontend my-tcp-in #前端服务tcp-in
    mode tcp
    bind 0.0.0.0:1884  #监听1884端口
    log global
    default_backend my-servers  #请求转发至名为"my-servers"的后端服务

backend my-servers #后端服务servers
    balance roundrobin #使用RR负载均衡算法
    server server1 172.16.6.161:1883 maxconn 10000  #backend servers中只有一个后端服务,名字叫server1,启在本机的1883端口,HAProxy同时最多向这个服务发起?个连接
    server server2 172.16.6.161:1888 maxconn 10000
    server server3 172.16.6.162:1888 maxconn 10000 check inter 3000 rise 2 fall 3

listen admin_status #统计web页面配置, frontend和backend的组合体, 监控组的名称可按需自定义
    mode http #配置监控运行模式
    bind 0.0.0.0:1080 #配置统计页面访问端口
    maxconn 10 #统计页面默认最大连接数
    log 127.0.0.1 local0 err
    stats enable #开启统计
    stats refresh 30s #监控页面自动刷新时间
    stats uri /stats #统计页面访问url
    stats realm welcome login\ Haproxy #统计页面密码框提示文本
    stats auth admin:admin #监控页面的用户和密码:admin, 可设置多个用户名
    stats admin if TRUE #手工启动/禁用后端服务器, 可通过web管理节点


默认也没有日志文件,需要自己设置/etc/rsyslog,详情见参考文献。

Haproxy通过check可以对后端服务器定期进行“健康”检测,及时发现down掉的“机器”和重新up的“机器”。
1) 对于down掉的机器Haproxy不再对向其转发数据;
2) 对于重新up的机器Haproxy将恢复向其转发数据。
check inter 3000 rise 2 fall 3
设置检测时间为3000毫秒,如果连续2次成功则标记该机器是up的,如果连续3次失败则标记其为down。


7、启动

cd /usr/local/haproxy/sbin

ulimit -n 102400 #修改当前进程的最大文件数

./haproxy -f /usr/local/haproxy/conf/haproxy.cfg
netstat -lnpt | grep haproxy  #查看进程是否在

8、关闭
killall -9 haproxy

9、重启
./haproxy -f /usr/local/haproxy/conf/haproxy.cfg -st 'cat /usr/local/haproxy/logs/haproxy.pid'


10、查看web监控

http://172.16.6.161:1080/stats



三、个人实践

测试环境:我个人的Linux TCP Server测试源码,C语言(★firecat推荐★)

我用netstat -nalp|grep 1884|wc -l 和 netstat -na|grep ESTABLISHED|wc -l 命令以及wireshark工具发现:

1、client会向haproxy建立tcp连接,haproxy也会向上游服务器建立tcp连接,且前端和后端tcp连接数目相同;wireshark可以抓包,查看三次握手的过程。

2、但是,这些现象,与文章前面描述的haproxy四层负载均衡的原理背道而驰,内容如下:

四层负载均衡:仅仅建立一次TCP连接。

七层负载均衡:负载均衡器与客户端及后端的服务器会分别建立一个TCP连接。即两次TCP连接。

3、个人认为,haproxy/Nginx都存在TCP源端口耗尽问题,haproxy/Nginx作为反向代理,会使用自己的IP地址作为源地址连接后端的服务器。根据TCP协议,无论任何类型操作系统都只能拥有64K个左右的源TCP端口,用于向外发起TCP连接。

说白了,别人家连接haproxy服务器没有端口限制,但是haproxy自身连接别人家上游服务器时,则有65535个端口限制。

4、那怎么解决端口耗尽问题?

(1)既然单个IP有65535个端口的限制,那就增大IP的个数。单个网卡绑定多个IP来解决。Linux支持这个功能,不限定IP数目。我配置两个IP,分别是172.16.6.161和172.16.6.162。

终端使用命令ip addr可以查询ip地址。ifconfig命令查询不到。


举个与haproxy无关的例子,当服务器出现多IP时,TCP listen怎么工作?我的C语言版本的TCP服务器程序,绑定地址写INADDR_ANY,意味着两个IP都同时支持客户端接入。

    bzero(&servaddr,sizeof(servaddr));
    servaddr.sin_family = AF_INET;
    servaddr.sin_addr.s_addr = htonl(INADDR_ANY);
    servaddr.sin_port = htons(port);
    if (bind(listenfd,(struct sockaddr*)&servaddr,sizeof(servaddr)) == -1)

[root@localhost ~]# netstat -nalp|grep 1883
tcp        0      0 0.0.0.0:1883            0.0.0.0:*               LISTEN      6333/epltest

如果绑定地址分别写172.16.6.161和172.16.6.162,则

[root@localhost ~]# netstat -nalp|grep 1883
tcp        0      0 172.16.6.161:1883       0.0.0.0:*               LISTEN      6723/epltest        
tcp        0      0 172.16.6.162:1883       0.0.0.0:*               LISTEN      6688/epltest        

说明1883端口可以分别被不同IP使用。

(2)尽可能多地使用本地端口数目。

输入终端命令,查看默认值 sysctl net.ipv4.ip_local_port_range
可以查看默认端口使用范围 net.ipv4.ip_local_port_range = 32768 61000

修改/etc/sysctl.conf中对应的内容
net.ipv4.ip_local_port_range = 1025 65000
输入终端命令,使能生效 sysctl -p

(3)修改haproxy.cfg文件

haproxy,161:*把数据转发给上游,161:1883

haproxy,162:*把数据转发给上游,161:1888

backend my-servers #后端服务servers
    balance roundrobin #使用RR负载均衡算法
    server server1 172.16.6.161:1883 source 172.16.6.161:1025-65000 maxconn 10000
    server server2 172.16.6.161:1888 source 172.16.6.162:1025-65000 maxconn 10000

注:server server1 172.16.6.161:1883 source 172.16.6.161:1025-65000这句话

前半部分的server1 IP指的是上游服务器,后半部分的souce IP指的是haproxy服务器。

因为本人测试只用1台电脑,所以看起来IP容易混淆。

说白了,haproxy拿0.0.0.0:1884端口对外,172.16.6.161和162对内(上游)。

这样也行:

haproxy,161:*把数据转发给上游,161:1883

haproxy,162:*还是把数据转发给上游,161:1883

backend my-servers #后端服务servers
    balance roundrobin #使用RR负载均衡算法
    server server1 172.16.6.161:1883 source 172.16.6.161:1025-65000 maxconn 10000
    server server2 172.16.6.161:1883 source 172.16.6.162:1025-65000 maxconn 10000

详情见博客:

Use HAProxy to load balance 300k concurrent tcp socket connections

配置haproxy支持使用多个lan内网ip做负载均衡以突破haproxy机只支持64k连接(突破单ip 65535端口限制)
haproxy TCP源端口耗尽问题(单个网卡最多65535个端口)

5、欢迎访问姊妹篇:

我个人的Nginx-1.12.2实践:安装,编译与测试(★firecat推荐,针对TCP四层负载均衡★)


------

参考文章:

http://www.linuxidc.com/Linux/2017-03/141593.htm

http://blog.chinaunix.net/uid-26168435-id-5761429.html

#Linux参数调优,修改文件 /etc/sysctl.conf ,在末尾追加这些文字

fs.file-max = 2097152
fs.nr_open = 2097152

net.core.somaxconn = 65535
net.core.rmem_default = 65535
net.core.wmem_default = 65535
net.core.rmem_max = 8388608
net.core.wmem_max = 83886080
net.core.optmem_max = 40960
net.ipv4.tcp_rmem = 4096 87380 83886080
net.ipv4.tcp_wmem = 4096 65535 83886080
net.ipv4.tcp_mem = 8388608 8388608 83886080

net.ipv4.ip_local_port_range = 1025 65000
net.ipv4.tcp_max_syn_backlog = 16384
net.core.netdev_max_backlog = 16384
net.ipv4.tcp_fin_timeout = 15

#修改完,输入终端命令,使能生效 sysctl -p

#允许当前会话/进程打开文件句柄数

ulimit -n 1048576

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值