Nginx实现高性能技术

Nginx实现高性能技术

  1. 网站的渐进式发展
    1. 传统架构
      传统项目分为三层架构,将业务逻辑层、数据库访问层、控制层放入在一个项目中 使用SSH或者SSM技术。
      优点:适合于个人或者小团队开发,不适合大团队开发。
    2. 分布式架构
      根据业务需求进行拆分成N个子系统,多个子系统相互协作才能完成业务流程子系统之间通讯使用RPC远程通讯技术。
      优点:
      1. 把模块拆分,使用接口通信,降低模块之间的耦合度。
      2. 把项目拆分成若干个子项目,不同的团队负责不同的子项目。
      3. 增加功能时只需要再增加一个子项目,调用其它系统的接口就可以。
      4. 可以灵活的进行分布式部署。
        有优点就有缺点,缺点如下:
      5. 系统之间交互需要使用远程通信,接口开发增加工作量。
      6. 各个模块有一些通用的业务逻辑无法共用。
        为了解决上面分布式架构的缺点,我们引入了soa架构,SOA:Service Oriented Architecture面向服务的架构。也就是把工程拆分成服务层、表现层两个工程。服务层中包含业务逻辑,只需要对外提供服务即可。表现层只需要处理和页面的交互,业务逻辑都是调用服务层的服务来实现。
    3. SOA架构
      SOA是一种软件架构模式,将共同的业务逻辑抽取出来,封装成单独的服务
      业务系统分解为多个组件,让每个组件都独立提供离散,自治,可复用的服务能力
      通过服务的组合和编排来实现上层的业务流程
      作用:简化维护,降低整体风险,伸缩灵活
    4. 微服务架构
      微服务是指开发一个单个、小型的但有业务的服务,每个服务都有自己的处理和轻通讯机制,可以部署在单个服务器上,让专业的人做专业的事情。
      微服务与SOA相比,更加轻量级。
    5. SOA与微服务架构区别
      OA架构主要针对企业级、采用ESB服务(ESB企业服务总线),非常重,需要序列化和反序列化,采用XML格式传输。
      微服务架构主要互联网公司,轻量级、小巧,独立运行,基于Http+Rest+JSON格式传输。
      ESB也可以说是传统中间件技术与XML、Web服务等技术相互结合的产物。
      1. 在微服务中,与SOA不同,服务可以独立于其他服务进行操作和部署,因此更容易经常部署新版本的服务和独立扩张服务,让专业的人做专业的事情,快速迭代新的产品。
      2. 在SOA中服务可能共享数据存储,而微服务中每个服务都具有独立的数据存储。
      3. SOA与微服务主要区别在于规模和范围,SOA是一种思想,是面向服务架构体系,微服务继承 了SOA的优点,去除传统的ESB消息总线,采用Http+json格式通讯方式,更加轻量级。
  2. 拆分系统
    在我们从零开始做一个新系统的时候,会首先进行系统功能模块架构设计,那么是直接做一个大而全的垂直的MVC系统,使用一个war包进行发布管理,还是需要按一些规则进行模块拆分,设计成SOA或者微服务系统比较好呢?这个笔者认为需要依据项目具有什么样的人力物力条件以及项目需要支撑多少用户量和交易量为基础。一个好的系统设计应该能够满足解决当前的需求和问题,把控实现和进度风险,预测和规划未来,避免过度设计,在上线一个基础核心版本之后,再进行不断迭代和完善。
    今天我们来谈一谈进行SOA、微服务系统架构设计时模块拆分的一些维度和原则。
    系统维度:按照系统功能、业务拆分,如、优惠券、购物车,结算,订单等系统。
    功能维度:对系统功能在做细粒度拆分,优惠券系统分为 优惠券后台系统、领券系统、发券系统。
    读写维度:比如商品系统中,如果查询量比较大,可以单独分为两个服务,分别为查询服务和写服务,
    读写比例特征拆分;读多,可考虑多级缓存;写多,可考虑分库分表.
    AOP 维度: 根据访问特征,按照 AOP 进行拆分,比如商品详情页可分为 CDN、页面渲染系统,CDN 就是一个 AOP 系统
    模块维度:对整体代码结构划分 Web、Service、DAO
  3. 环境准备
    CentOS7 7.0 64位 以上+一台外网服务器+一个域名+CDN内容分发 电脑配置 16g以上内存
    CentOS7关闭防火墙
    //临时关闭
    systemctl stop firewalld
    //禁止开机启动
    systemctl disable firewalld
    Removed symlink /etc/systemd/system/multi-user.target.wants/firewalld.service.
    Removed symlink /etc/systemd/system/dbus-org.fedoraproject.FirewallD1.service.
  4. 负载均衡与反向代理
    1. 外网映射工具
      1. natapp,ngrok
      2. natapp用法:相关文档https://natapp.cn/
  5. 负载均衡
    负载均衡 建立在现有网络结构之上,它提供了一种廉价有效透明的方法扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。
    负载均衡,英文名称为Load Balance,其意思就是分摊到多个操作单元上进行执行,例如Web服务器、FTP服务器、企业关键应用服务器和其它关键任务服务器等,从而共同完成工作任务。
    1. 安装linux版本安装Nginx
      1. 安装gcc gcc-c++(如新环境,未安装请先安装)$ yum install -y gcc gcc-c++
      2. 安装wget:$ yum -y install wget
      3. 安装PCRE库:
        $ cd /usr/local/
        $ wget http://jaist.dl.sourceforge.net/project/pcre/pcre/8.33/pcre-8.33.tar.gz
        $ tar -zxvf pcre-8.33.tar.gz
        $ cd pcre-8.33
        $ ./configure
        $ make && make install
        如果报错:
        在 linux 中执行 wget 命令提示 -bash: wget: command not found 解决方法
        解决办法 yum -y install wget
      4. 安装SSL库
        $ cd /usr/local/
        $ wget http://www.openssl.org/source/openssl-1.0.1j.tar.gz
        $ tar -zxvf openssl-1.0.1j.tar.gz
        $ cd openssl-1.0.1j
        $ ./config
        $ make && make install
      5. 安装zlib库存
        $ cd /usr/local/
        $ wget http://zlib.net/zlib-1.2.11.tar.gz
        $ tar -zxvf zlib-1.2.11.tar.gz
        $ cd zlib-1.2.11
        $ ./configure
        $ make && make install
      6. 安装Nginx
        $ cd /usr/local/
        $ wget http://nginx.org/download/nginx-1.8.0.tar.gz
        $ tar -zxvf nginx-1.8.0.tar.gz
        $ cd nginx-1.8.0
        $ ./configure
        $ make && make install
      7. 启动Nginx
        /usr/local/nginx/sbin/nginx
  6. 反向代理
    1. 反向代理作用:
      反向代理(Reverse Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给internet上请求连接的客户端,此时代理服务器对外就表现为一个反向代理服务器。
      启动一个Tomcat 127.0.0.1:8080
      使用nginx反向代理 8080.itmayiedu.com 直接跳转到127.0.0.1:8080
    2. 反向代理的好处
      反向代理的好处隐藏真实内部ip地址,请求先访问nginx代理服务器(外网可以访问到),在使用nginx服务器转发到真实服务器中。
    3. 反向代理配置
      ###当客户端访问www.qxd.com,监听端口号为80直接跳转到真实ip服务器地址 127.0.0.1:8080
      server {
      listen 80;
      server_name www.qxd.com;
      location / {
      proxy_pass http://127.0.0.1:8080;
      index index.html index.htm;
      }
      }
      ###当客户端访问www.qxd.com,监听端口号为80直接跳转到真实ip服务器地址 127.0.0.1:8081
      server {
      listen 80;
      server_name 8081.qxd.com;
      location / {
      proxy_pass http://127.0.0.1:8081;
      index index.html index.htm;
      }
      }
    4. location正则表达式
      1. location的作用: location指令的作用是根据用户请求的URI来执行不同的应用,也就是根据用户请求的网站URL进行匹配,匹配成功即进行相关的操作。
      2. location的语法
        已=开头表示精确匹配
        如 A 中只匹配根目录结尾的请求,后面不能带任何字符串。
        ^~ 开头表示uri以某个常规字符串开头,不是正则匹配
        ~ 开头表示区分大小写的正则匹配;
        ~* 开头表示不区分大小写的正则匹配
        / 通用匹配, 如果没有其它匹配,任何请求都会匹配到
      3. 正则表达式案例
        server {
        listen 80;
        server_name www.qxd.com;
        #精确匹配,注解后面不能带任何字符
        location =/ {
        proxy_pass http://127.0.0.1:8080;
        index index.html index.htm;
        }
        }
        server {
        listen 80;
        server_name www.qxd.com;
        ### 以开头/qxd_8080 最终跳转到http://127.0.0.1:8080/;
        location /qxd_8080/ {
        proxy_pass http://127.0.0.1:8080/;
        index index.html index.htm;
        }
        ### 以开头/qxd_8080 最终跳转到http://127.0.0.1:8081/;
        location /qxd_8081/ {
        proxy_pass http://127.0.0.1:8081/;
        index index.html index.htm;
        }
        }
  7. 负载均衡的作用
    负载均衡 建立在现有网络结构之上,它提供了一种廉价有效透明的方法扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。
    负载均衡,英文名称为Load Balance,其意思就是分摊到多个操作单元上进行执行,例如Web服务器、FTP服务器、企业关键应用服务器和其它关键任务服务器等,从而共同完成工作任务。
    负载均衡就是,将所有请求先到负载均衡器,在由负载均衡器采用负载均衡算法(轮训、IP绑定、权重)分发到不同实际的服务器中,这也就是服务器集群,集群的目的 是为了减轻单台服务器压力
    1. 负载均衡的缺点(分布式问题)

      1. 分布式Session一致性问题
      2. 分布式定时任务调度幂等性问题
      3. 分布式生成全局订单ID
    2. 四层负载和七层负载均衡区别
      四层负载均衡,在网络模型中的传输层中,基于主要是基于tcp协议报文实现负载均衡(比如LVS、haproxy就是四层负载均衡器),使用改写报文的源地址和目的地址。
      七层负载均衡,在网络模型中应用层中,基于URL或者HTTP协议实现负载均衡,Web服务器。

    3. Upstream Server 负载均衡
      Upstream Server 中文翻译 上游服务器,意思就是负载均衡服务器设置,白话文表示(就是被nginx代理最后真实访问的服务器)
      负载均衡算法:配置多个上游服务器(真实业务逻辑访问的服务器)的负载均衡机制
      失败重试机制:当上游服务器(真实业务逻辑访问的服务器)出现超时或者服务器不存活,是否考虑重试机制(补偿机制)
      服务器心跳检测: 当上游服务器(真实业务逻辑访问的服务器),监控检测|心跳检测

      实现负载均衡:
      ###定义上游服务器(需要被nginx真实代理访问的服务器) 默认是轮训机制
      upstream backServer{
      server 127.0.0.1:8080;
      server 127.0.0.1:8081;
      }

      	server {
              listen       80;
              server_name  www.itmayiedu.com;
              location / {
      		    ### 指定上游服务器负载均衡服务器
      		    proxy_pass http://backServer;
                  index  index.html index.htm;
              }
          }
      
    4. 负载均衡算法
      1、轮询(默认)
      每个请求按时间顺序逐一分配到不同的后端服务,如果后端某台服务器死机,自动剔除故障系统,使用户访问不受影响。
      2、weight(轮询权值)
      weight的值越大分配到的访问概率越高,主要用于后端每台服务器性能不均衡的情况下。或者仅仅为在主从的情况下设置不同的权值,达到合理有效的地利用主机资源。
      配置如下:
      upstream backServer{
      server 127.0.0.1:8080 weight=1;
      server 127.0.0.1:8081 weight=2;
      }
      server {
      listen 80;
      server_name www.itmayiedu.com;
      location / {
      ### 指定上游服务器负载均衡服务器
      proxy_pass http://backServer;
      index index.html index.htm;
      }
      }
      3、ip_hash
      每个请求按访问IP的哈希结果分配,使来自同一个IP的访客固定访问一台后端服务器,并且可以有效解决动态网页存在的session共享问题。俗称IP绑定。
      配置如下:
      upstream backServer{
      server 127.0.0.1:8080 ;
      server 127.0.0.1:8081 ;
      ip_hash;
      }
      server {
      listen 80;
      server_name www.itmayiedu.com;
      location / {
      ### 指定上游服务器负载均衡服务器
      proxy_pass http://backServer;
      index index.html index.htm;
      }
      }
      4、fair(第三方)
      比 weight、ip_hash更加智能的负载均衡算法,fair算法可以根据页面大小和加载时间长短智能地进行负载均衡,也就是根据后端服务器的响应时间 来分配请求,响应时间短的优先分配。Nginx本身不支持fair,如果需要这种调度算法,则必须安装upstream_fair模块。
      5、url_hash(第三方)
      按访问的URL的哈希结果来分配请求,使每个URL定向到一台后端服务器,可以进一步提高后端缓存服务器的效率。Nginx本身不支持url_hash,如果需要这种调度算法,则必须安装Nginx的hash软件包。

    5. Nginx配置故障转移
      当上游服务器(真实访问服务器),一旦出现故障或者是没有及时相应的话,应该直接轮训到下一台服务器,保证服务器的高可用。
      Nginx配置代码:
      server {
      listen 80;
      server_name www.itmayiedu.com;
      location / {
      ### 指定上游服务器负载均衡服务器
      proxy_pass http://backServer;
      ###nginx与上游服务器(真实访问的服务器)超时时间 后端服务器连接的超时时间_发起握手等候响应超时时间
      proxy_connect_timeout 1s;
      ###nginx发送给上游服务器(真实访问的服务器)超时时间
      proxy_send_timeout 1s;
      ### nginx接受上游服务器(真实访问的服务器)超时时间
      proxy_read_timeout 1s;
      index index.html index.htm;
      }
      }

    6. http实现动态负载均衡

      1. 什么是动态负载均衡:
        传统的负载均衡,如果Upstream参数发生变化,每次都需要重新加载nginx.conf文件,
        因此扩展性不是很高,所以我们可以采用动态负载均衡,实现Upstream可配置化、动态化,无需人工重新加载nginx.conf。
        这类似分布式的配置中心
      2. 动态负载均衡实现方案
        1. Consul+Consul-template
          每次发现配置更改需要raload nginx,重启Nginx。
        2. Consul+OpenResty 实现无需raload动态负载均衡
        3. Consul+upsync+Nginx 实现无需raload动态负载均衡
      3. consul快速入门
        Consul是一款开源的分布式服务注册与发现系统,通过HTTP API可以使得服务注册、发现实现起来非常简单,它支持如下特性。
          服务注册:服务实现者可以通过HTTP API或DNS方式,将服务注册到Consul。
        服务发现:服务消费者可以通过HTTP API或DNS方式,从Consul获取服务的IP和PORT。
        故障检测:支持如TCP、HTTP等方式的健康检查机制,从而当服务有故障时自动摘除。
        K/V存储:使用K/V存储实现动态配置中心,其使用HTTP长轮询实现变更触发和配置更改。
        多数据中心:支持多数据中心,可以按照数据中心注册和发现服务,即支持只消费本地机房服 务,使用多数据中心集群还可以避免单数据中心的单点故障。
        Raft算法:Consul使用Raft算法实现集群数据一致性。
        通过Consul可以管理服务注册与发现,接下来需要有一个与Nginx部署在同一台机器的Agent来实现Nginx配置更改和Nginx重启功能。我们有Confd或者Consul-template两个选择,而Consul-template是Consul官方提供的,我们就选择它了。其使用HTTP长轮询实现变更触发和配置更改(使用Consul的watch命令实现)。也就是说,我们使用Consul-template实现配置模板,然后拉取Consul配置渲染模板来生成Nginx实际配置。
        1. 环境搭建
          1. 下载consul_0.7.5_linux_amd64.zip:wget https://releases.hashicorp.com/consul/0.7.5/consul_0.7.5_linux_amd64.zip
          2. 解压consul_0.7.5_linux_amd64.zip:unzip consul_0.7.5_linux_amd64.zip
          3. 如果解压失败:yum -y install unzip
          4. 执行以下 ./consul 出现很多信息就说明安装成功
          5. 启动consul:./consul agent -dev -ui -node=consul-dev -client=192.168.212.131(Linux的ip地址)
          6. 临时关闭防火墙systemctl stop firewalld
          7. 浏览器访问192.168.212.131:8500
      4. nginx-upsync-module 搭建
        1. 介绍:
          Upsync是新浪微博开源的基于Nginx实现动态配置的三方模块。Nginx-Upsync-Module的功能是拉取Consul的后端server的列表,并动态更新Nginx的路由信息。此模块不依赖于任何第三方模块。Consul作为Nginx的DB,利用Consul的KV服务,每个Nginx Work进程独立的去拉取各个upstream的配置,并更新各自的路由。
        2. nginx-upsync-module安装
          1. 安装Nginx
            wget http://nginx.org/download/nginx-1.9.10.tar.gz
            作用:实现反向代理、负载负载库
          2. 安装consul
            wget https://releases.hashicorp.com/consul/0.7.1/consul_0.7.1_linux_amd64.zip
            作用:对动态负载均衡均配置实现注册
          3. 安装nginx-upsync-module
            wget https://github.com/weibocom/nginx-upsync-module/archive/master.zip
            作用:nginx动态获取最新upstream信息
        3. 解压安装
          unzip master.zip
          unzip consul_0.7.1_linux_amd64.zip
        4. yum -y install unzip
      5. 安装Nginx
        1. 解压Nginx
          yum -y install unzip

        2. 配置Nginx
          groupadd nginx
          useradd -g nginx -s /sbin/nologin nginx
          mkdir -p /var/tmp/nginx/client/
          mkdir -p /usr/local/nginx

        3. 编译Nginx
          cd nginx-1.9.0

          ./configure   
          --prefix=/usr/local/nginx   
          --user=nginx   
          --group=nginx   
          --with-http_ssl_module   
          --with-http_flv_module   
          --with-http_stub_status_module   
          --with-http_gzip_static_module   
          --with-http_realip_module   
          --http-client-body-temp-path=/var/tmp/nginx/client/   --http-proxy-temp-path=/var/tmp/nginx/proxy/   --http-fastcgi-temp-path=/var/tmp/nginx/fcgi/   --http-uwsgi-temp-path=/var/tmp/nginx/uwsgi   
          --http-scgi-temp-path=/var/tmp/nginx/scgi   
          --with-pcre --add-module=../nginx-upsync-module-master
          make && make install
          

          但是如果出错的话那么就用:yum -y install openssl openssl-devel
          upstream动态配置:
          ##动态去consul 获取注册的真实反向代理地址
          upstream qxd{
          server 127.0.0.1:11111;
          upsync 192.168.212.134:8500/v1/kv/upstreams/qxd upsync_timeout=6m upsync_interval=500ms upsync_type=consul strong_dependency=off;
          upsync_dump_path /usr/local/nginx/conf/servers/servers_test.conf;
          }

              server {
                  listen       80;
                  server_name  localhost;
          
                  location / {
                      proxy_pass http://qxd;
                      index  index.html index.htm;
                  }
              }
          

          upsync指令指定从consul哪个路径拉取上游服务器配置;upsync_timeout配置从consul拉取上游服务器配置的超时时间;upsync_interval配置从consul拉取上游服务器配置的间隔时间;upsync_type指定使用consul配置服务器;strong_dependency配置nginx在启动时是否强制依赖配置服务器,如果配置为on,则拉取配置失败时nginx启动同样失败。upsync_dump_path指定从consul拉取的上游服务器后持久化到的位置,这样即使consul服务器出问题了,本地还有一个备份。
          注意:替换 consul 注册中心地址

        4. 创建upsync_dump_path
          mkdir /usr/local/nginx/conf/servers/
          upsync_dump_path指定从consul拉取的上游服务器后持久化到的位置,这样即使consul服务器出问题了,本地还有一个备份。

        5. 启动consul
          临时关闭防火墙systemctl stop firewalld
          我的linux Ip地址192.168.212.131
          ./consul agent -dev -ui -node=consul-dev -client=192.168.212.131

        6. 添加nginx Upstream服务
          1.使用linux命令方式发送put请求
          curl -X PUT http://192.168.212.134:8500/v1/kv/upstreams/itmayiedu/192.168.212.1:8081
          curl -X PUT http://192.168.212.134:8500/v1/kv/upstreams/itmayiedu/192.168.212.1:8081
          2.使用postmen 发送put请求
          http://192.168.212.134:8500/v1/kv/upstreams/itmayiedu/192.168.212.1:8081 http://192.168.212.134:8500/v1/kv/upstreams/itmayiedu/192.168.212.1:8081
          负载均衡信息参数
          {“weight”:1, “max_fails”:2, “fail_timeout”:10, “down”:0}

    7. socket实现四层负载均衡

      1. 环境搭建
        测试环境 CentOS7
        Nginx1.9开始支持tcp层的转发,通过stream实现的,而socket也是基于tcp通信。
        stream模块默认不安装的,需要手动添加参数:–with-stream,官方下载地址:download,根据自己系统版本选择nginx1.9或以上版本
        ./configure --add-module=…/yaoweibin-nginx_tcp_proxy_module-121c026
      2. 安装软件
        1.安装Nginx
        wget http://nginx.org/download/nginx-1.9.10.tar.gz
        作用:实现反向代理、负载负载库
        2.安装nginx_tcp_proxy_module 插件
        wget https://github.com/yaoweibin/nginx_tcp_proxy_module/tarball/master
        tar -zxvf master
        nginx 支持TCP转发和负载均衡的支持
      3. 编译Nginx (四层负载均衡)
        编译Nginx
        1. 解压nginx文件
          tar -zxvf nginx-1.9.10.tar.gz

        2. 进入到Nginx目录
          cd nginx-1.9.10

        3. 下载tcp.patch最新补丁
          patch -p1 < …/yaoweibin-nginx_tcp_proxy_module-121c026/tcp.patch
          如果报错
          -bash: patch: 未找到命令 执行 yum -y install patch 安装即可。

        4. 编译Nginx
          ./configure --add-module=…/yaoweibin-nginx_tcp_proxy_module-121c026

        5. make && make install
          如果报错
          In file included from …/nginx_tcp_proxy_module-master/ngx_tcp.h:32,
          from …/nginx_tcp_proxy_module-master/ngx_tcp.c:5:
          …/nginx_tcp_proxy_module-master/ngx_tcp_upstream.h:144: error: expected specifier-qualifier-list before ‘ngx_resolver_addr_t’
          make[1]: *** [objs/addon/nginx_tcp_proxy_module-master/ngx_tcp.o] Error 1
          make[1]: Leaving directory `/opt/apps_install/nginx-1.9.9’
          make: *** [build] Error 2
          修改第三方模块包里的头文件,ngx_tcp_upstream.h 144 行将ngx_resolver_addr_t 改为 ngx_addr_t
          Cd /usr/local/yaoweibin-nginx_tcp_proxy_module-121c026
          Vi

        6. 修改Nginx.conf配置文件
          worker_processes 1;
          events {
          worker_connections 1024;
          }
          ### 修改为TCP模块
          tcp {

             ### 定义多个上游服务器
             upstream  qxd{
                ### 定义TCP模块上游服务器
                server 192.168.5.165:80001;
          	  server 192.168.5.165:80002;
             }
              server {
                  listen       9999;
                  server_name  192.168.212.137;
          		### 反向代理upstream
                  proxy_pass qxd;
              }
          }
          
      4. lvs+keepalived+nginx实现高性能负载均衡集群
        1. LKN主要作用:
          1. LVS作用:
            LVS是一个开源的软件,可以实现传输层四层负载均衡。LVS是Linux Virtual Server的缩写,意思是Linux虚拟服务器。目前有三种IP负载均衡技术(VS/NAT、VS/TUN和VS/DR);八种调度算法(rr,wrr,lc,wlc,lblc,lblcr,dh,sh)。
          2. Keepalived作用
            LVS可以实现负载均衡,但是不能够进行健康检查,比如一个rs出现故障,LVS 仍然会把请求转发给故障的rs服务器,这样就会导致请求的无效性。keepalive 软件可以进行健康检查,而且能同时实现 LVS 的高可用性,解决 LVS 单点故障的问题,其实 keepalive 就是为 LVS 而生的。
          3. keepalived和其工作原理
            keepalived是一个类似于Layer2,4,7交换机制的软件。是Linux集群管理中保证集群高可用的一个服务软件,其功能是用来防止单点故障。
        2. 环境服务配置
          两台Nginx服务器
          Nginx 主服务器 192.168.212.143
          Nginx 备服务器 192.168.212.144
          Lvs 虚拟VIP 192.168.212.110
          前面三个一定要相同
        3. 环境搭建
          1. 下载keepalived
            wget http://www.keepalived.org/software/keepalived-1.2.18.tar.gz
          2. 解压安装:
            tar -zxvf keepalived-1.2.18.tar.gz -C /usr/local/
          3. 下载插件openssl
            yum install -y openssl openssl-devel(需要安装一个软件包)
          4. 开始编译keepalived
            cd keepalived-1.2.18/ && ./configure --prefix=/usr/local/keepalived
          5. make一下
            make && make install
            报错: eepalived执行./configure --prefix=/usr/local/keepalived时报错:configure: error: Popt libraries is required
            出现此错误的原因:
            未安装popt的开发包
            解决方法:
            yum install popt-devel
            安装好popt的开发包。重新./configure 即可。
          6. keepalived安装成系统服务
            将keepalived安装成Linux系统服务,因为没有使用keepalived的默认安装路径(默认路径:/usr/local),安装完成之后,需要做一些修改工作:
            首先创建文件夹,将keepalived配置文件进行复制:
            mkdir /etc/keepalived
            cp /usr/local/keepalived/etc/keepalived/keepalived.conf /etc/keepalived/
            然后复制keepalived脚本文件:
            cp /usr/local/keepalived/etc/rc.d/init.d/keepalived /etc/init.d/
            cp /usr/local/keepalived/etc/sysconfig/keepalived /etc/sysconfig/
            ln -s /usr/local/sbin/keepalived /usr/sbin/
            ln -s /usr/local/keepalived/sbin/keepalived /sbin/
            可以设置开机启动:chkconfig keepalived on,到此我们安装完毕!
          7. keepalived常用命令
            service keepalived start
            service keepalived stop
            如果启动报错那么
            启动报错:Starting keepalived (via systemctl): Job for keepalived.service failed. See ‘systemctl status keepalived.service’ and ‘journalctl -xn’ for details.
            解决办法
            [root@edu-proxy-01 sbin]# cd /usr/sbin/
            [root@edu-proxy-01 sbin]# rm -f keepalived
            [root@edu-proxy-01 sbin]# cp /usr/local/keepalived/sbin/keepalived /usr/sbin/
          8. 使用keepalived虚拟VIP
            1. 编写文件: vi /etc/keepalived/keepalived.conf
              vrrp_script chk_nginx {
              script “/etc/keepalived/nginx_check.sh” #运行脚本,脚本内容下面有,就是起到一个nginx宕机以后,自动开启服务
              interval 2 #检测时间间隔
              weight -20 #如果条件成立的话,则权重 -20
              }
              # 定义虚拟路由,VI_1 为虚拟路由的标示符,自己定义名称
              vrrp_instance VI_1 {
              state MASTER #来决定主从
              interface ens33 # 绑定虚拟 IP 的网络接口,根据自己的机器填写
              virtual_router_id 121 # 虚拟路由的 ID 号, 两个节点设置必须一样
              mcast_src_ip 192.168.212.140 #填写本机ip
              priority 100 # 节点优先级,主要比从节点优先级高
              nopreempt # 优先级高的设置 nopreempt 解决异常恢复后再次抢占的问题
              advert_int 1 # 组播信息发送间隔,两个节点设置必须一样,默认 1s
              authentication {
              auth_type PASS
              auth_pass 1111
              }
              # 将 track_script 块加入 instance 配置块
              track_script {
              chk_nginx #执行 Nginx 监控的服务
              }

                  virtual_ipaddress {
                      192.168.110.110 # 虚拟ip,也就是解决写死程序的ip怎么能切换的ip,也可扩展,用途广泛。可配置多个。
                  }
              }
              
            2. 关闭防火墙 systemctl stop firewalld

      5. nginx+keepalived简单双机主从热备
        可以两台机子互为热备,平时各自负责各自的服务。在做上线更新的时候,关闭一台服务器的tomcat后,nginx自动把流量切换到另外一台服务的后备机子上,从而实现无痛更新,保持服务的持续性,提高服务的可靠性,从而保证服务器7*24小时运行。
        1. Nginx Upstream 实现简单双机主从热备
          upstream testproxy {
          server 127.0.0.1:8080;
          server 127.0.0.1:8081 backup;
          }
          server {
          listen 80;
          server_name localhost;
          location / {
          proxy_pass http://testproxy;
          index index.html index.htm;
          }
          ###nginx与上游服务器(真实访问的服务器)超时时间 后端服务器连接的超时时间_发起握手等候响应超时时间
          proxy_connect_timeout 1s;
          ###nginx发送给上游服务器(真实访问的服务器)超时时间
          proxy_send_timeout 1s;
          ### nginx接受上游服务器(真实访问的服务器)超时时间
          proxy_read_timeout 1s;
          }
          只要在希望成为后备的服务器 ip 后面多添加一个 backup 参数,这台服务器就会成为备份服务器。
          在平时不使用,nginx 不会给它转发任何请求。只有当其他节点全部无法连接的时候,nginx 才会启用这个节点。
          一旦有可用的节点恢复服务,该节点则不再使用,又进入后备状态
        2. Nginx+keepalived简单双机主从热备
          每个服务虚拟安装keepalived 虚拟一个VIP ,配置主从关系,当主挂了,直接走备机。
          Keepalived虚拟VIP 地址 192.168.212.110
          A 服务器 192.168.212.142
          B 服务器 192.168.212.143
          1. 修改主keepalived信息
            修改主Nginx服务器keepalived文件, /etc/keepalived/keepalived.conf
            State 为MASTER
            配置为:
            ! Configuration File for keepalived

            vrrp_script chk_nginx {
                script "/etc/keepalived/nginx_check.sh" #运行脚本,脚本内容下面有,就是起到一个nginx宕机以后,自动开启服务
                interval 2 #检测时间间隔
                weight -20 #如果条件成立的话,则权重 -20
            }
            # 定义虚拟路由,VI_1 为虚拟路由的标示符,自己定义名称
            vrrp_instance VI_1 {
                state MASTER #来决定主从
                interface ens33 # 绑定虚拟 IP 的网络接口,根据自己的机器填写
                virtual_router_id 121 # 虚拟路由的 ID 号, 两个节点设置必须一样
                mcast_src_ip 192.168.212.141 #填写本机ip
                priority 100 # 节点优先级,主要比从节点优先级高
                nopreempt # 优先级高的设置 nopreempt 解决异常恢复后再次抢占的问题
                advert_int 1 # 组播信息发送间隔,两个节点设置必须一样,默认 1s
                authentication {
                    auth_type PASS
                    auth_pass 1111
                }
                # 将 track_script 块加入 instance 配置块
                track_script {
                    chk_nginx #执行 Nginx 监控的服务
                }
            
                virtual_ipaddress {
                    192.168.212.110 # 虚拟ip,也就是解决写死程序的ip怎么能切换的ip,也可扩展,用途广泛。可配置多个。
                }
            }
            
          2. nginx+keepalived实现高可用
            写入nginx_check.sh脚本 /etc/keepalived/nginx_check.sh
            配置:

   #!/bin/bash
   A=`ps -C nginx –no-header |wc -l`
   if [ $A -eq 0 ];then
       /usr/local/nginx/sbin/nginx
       sleep 2
       if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then
           killall keepalived
       fi
   fi
           注意该脚本一定要授权
           chmod 777 nginx_check.sh。
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值