Apache服务的安装及工作模式介绍

我们都知道Linux上常见的web服务器有:apache、nginx、tomcat!

其区别如下:

  • apache:模块化服务器,支持模块较多、采用servlet处理模型,同步阻塞模型,工作模式多变,对于高并发的场景处理速度会比较慢,运行稳定。
  • nginx:轻量级web服务器,自身支持模块较少,需要借助第三方模块支持,采用epoll处理模型,异步非阻塞型,适合高并发场景,配置简单。
  • tomcat:apache软件基金会下开源的子项目,也称为容器,主要处理java语言编写的页面,也可以处理html页面,并发连接小。

一、apache服务器的安装及功能介绍
apache服务2.4版本功能介绍:

  • MPM支持在运行时装载,支持envet工作模式;
  • 支持异步读写;
  • 每个模块可以指定输出的日志级别 ;
  • 增强版的表达式分析器,通过正则匹配表达式,做动静分离 .html .php;
  • 请求配置: ;
  • 毫秒级别的keep alive timeout;
  • 支持FQDN的虚拟主机 FQDN:全球限定域名,可以通过host主机名来定义虚拟主机;
  • 支持自定义变量;

.

依赖包: https://pan.baidu.com/s/14-m7p9_2a6UPdvjRPfjLjQ
提取码: xnrj
web服务器为centos 7.X版本

1、开始安装:

[root@apache ~]# rz           #xshell中,使用rz命令将下载的tar包上传至web服务器
#以下是将所有源码包解压缩
[root@apache ~]# tar zxf openssl-1.0.1u.tar.gz -C /usr/src
[root@apache ~]# tar zxf pcre-8.39.tar.gz -C /usr/src
[root@apache ~]# tar zxf zlib-1.2.8.tar.gz -C /usr/src
[root@apache ~]# tar zxf httpd-2.4.23.tar.gz -C /usr/src
[root@apache ~]# tar zxf apr-1.5.2.tar.gz -C /usr/src
[root@apache ~]# tar zxf apr-util-1.5.4.tar.gz -C /usr/src
#以下开始安装apache所需依赖包
[root@apache ~]# cd /usr/src/apr-1.5.2/
[root@apache apr-1.5.2]# ./configure --prefix=/usr/local/apr && make && make install
[root@apache apr-1.5.2]# cd ../apr-util-1.5.4/
[root@apache apr-util-1.5.4]# ./configure --prefix=/usr/local/apr-util --with-apr=/usr/local/apr && make && make install
[root@apache zlib-1.2.8]# cd ../zlib-1.2.8/
[root@apache zlib-1.2.8]# ./configure --prefix=/usr/local/zlib && make && make install
[root@apache pcre-8.39]# cd ../pcre-8.39/
[root@apache pcre-8.39]# ./configure --prefix=/usr/local/pcre && make && make install
[root@apache pcre-8.39]# cd ../openssl-1.0.1u/
[root@apache openssl-1.0.1u]# ./config -fPIC --prefix=/usr/local/openssl enable-shared && make && make install
#依赖安装完成后,开始安装http服务
[root@apache openssl-1.0.1u]# cd ../httpd-2.4.23/
[root@apache httpd-2.4.23]# ./configure --prefix=/usr/local/http-2.4.23 --enable-so --enable-cgi --enable-cgid --enable-ssl --with-ssl=/usr/local/openssl --enable-rewrite --with-pcre=/usr/local/pcre --with-z=/usr/local/zlib --with-apr=/usr/local/apr --with-apr-util=/usr/local/apr-util -enable-modules=most --enable-mods-shared=most --enable-mpms-shared=all --with-mpm=event --enable-proxy --enable-proxy-fcgi --enable-expires --enable-deflate && make && make install
[root@apache httpd-2.4.23]# cd /usr/local/http-2.4.23/bin/
[root@apache bin]# ln -sf /usr/local/http-2.4.23/bin/* /usr/local/bin/    #将apache的命令做软链接
[root@apache bin]# apachectl start            #启动apache服务,会提示以下信息,无所谓的。
#若想解决,只需在apache的主配置文件中添加域名即可
AH00558: httpd: Could not reliably determine the server's fully qualified domain name, using fe80::c94:cd92:5c18:a1. S

至此,apache的网页就可以访问了。

关于安装apache服务时的配置项,相关解释如下:

  • –enable-so:打开dos支持,可以在编译完成后添加额外功能
  • –enable-cgi:开启cgi通用网管接口
  • –enable-cgid:开启cig通用网管接口管理程序
  • –enable-ssl:http加密传输协议,支持https协议。
  • –enable-rewrite:开启地址重写功能,用来实现防盗链
  • –with-服务名称=/PATH路径:指定安装时依赖服务的路径
  • –enable-mods-shared=most:在安装的过程中安装常用模块
  • –enable-mpms-shared=all:安装apache的所有工作模式
  • –enable-proxy:开启http代理功能
  • –enable-proxy-fcgi:支持fastcgi快速通用网关接口的fcgi协议
  • –enable-expires:支持缓存功能
  • –enable-deflate:支持压缩功能

安装至此就完成了,下面来谈谈apache服务的三种工作模式。

二、Apache服务的三种工作模式详解

apache服务的三种工作模式为:

  • prefork:预派生子进程;
  • worker:多进程+多线程;
  • event:多进程+多线程+epoll处理模型;

1、prefork工作模式:
prefork模式可以算是很古老但是很稳定的模式。apache在刚启动时,就预派生fork一些子进程(默认为5个),每个子进程只有一个线程,然后等待请求进来,并且总是试图保持一些空闲的子进程,之所以这样做,是为了减少频繁创建和销毁进程的开销。每个子进程中只有一个线程,在一个时间点内,一个线程只能处理一个请求。

在Unix系统中,父进程通常以root身份运行以便绑定80端口,而apache产生的子进程通常以一个低特权的用户运行。运行子进程的用户必须要对它服务的内容有读取的权限,但是对服务内容之外的其他资源必须拥有尽可能少的权限。

prefork模式的优缺点比较:

  • 优点:成熟,兼容所有新老模块。进程之间完全独立,使得它非常稳定。同时,不需要担心线程安全的问题。(我们常用的mod_php,PHP的拓展不需要支持线程安全,prefork这个模式非常安全)。
  • 缺点:一个进程相对占用更多的系统资源,消耗更多的内存。而且,它并不擅长处理高并发请求,在这种场景下,它会将请求放进队列中,一直等到有可用进程,请求才会被处理。
  • 总结:prefork工作模式,效率最高,但是内存使用较大,不擅长处理高并发的场景。

2、worker工作模式
worker模式比起prefork模式,是使用了多进程+多线程的模式。它也预先fork了几个子进程(数量比较少),每个子进程能够生成一些服务线程和一个监听线程,该监听线程接入请求并将其传递给服务线程处理和应答。

线程比起进程会更轻量,因为线程通常会共享父进程的内存空间,因此,内存的占用会减少一些,在高并发的场景下,表现得比 prefork模式好。

worker模式的多进程+多线程模式中,各个进程之间都是独立的,如果某个线程出现异常,受影响的只是Apache的一部分服务,而不是整个服务。其他进程仍然可以工作。

worker模式的优缺点比较:

  • 优点:占据更少的内存,高并发下表现更优秀。
  • 缺点:必须考虑线程安全的问题,因为多个子线程是共享父进程的内存地址的。如果使用keep-alive的长连接方式,也许中间几乎没有请求,这时就会发生阻塞,线程被挂起,需要一直等待到超时才会被释放。如果过多的线程,被这样占据,也会导致在高并发场景下的无服务线程可用。(该问题在prefork模式下,同样会发生)

3、event工作模式
这个是 Apache中最新的模式,在现在版本里的已经是稳定可用的模式。它和 worker模式很像,最大的区别在于,它解决了 keep-alive 场景下 ,长期被占用的线程的资源浪费问题(某些线程因为被keep-alive,挂在那里等待,中间几乎没有请求过来,一直等到超时)。

event工作模式中,会有一个专门的线程来管理这些keep-alive类型的线程,当有真实请求过来的时候,将请求传递给服务线程,执行完毕后,又允许它释放。这样,一个线程就能处理几个请求了,实现了异步非阻塞。

event 工作模式在遇到某些不兼容的模块时,会失效,将会回退到worker模式,一个工作线程处理一个请求。官方自带的模块,全部是支持event 的。

注意一点,event MPM需要Linux系统(Linux 2.6+)对Epoll的支持,才能启用。

还有,需要补充的是HTTPS的连接(SSL),它的运行模式仍然是类似worker的方式,线程会被一直占用,直到连接关闭。

三、修改apache的工作模式

[root@apache bin]# /etc/init.d/httpd -M      #查看apache加载的模块
[root@apache bin]# /etc/init.d/httpd -V         #查看apache的工作模式
            ..............#省略部分内容
Server's Module Magic Number: 20120211:61
Server loaded:  APR 1.5.2, APR-UTIL 1.5.4
Compiled using: APR 1.5.2, APR-UTIL 1.5.4
Architecture:   64-bit
Server MPM:     event             #这行便是它的工作模式
  threaded:     yes (fixed thread count)
    forked:     yes (variable process count)
            ..............#省略部分内容
[root@apache bin]# cd /usr/local/http-2.4.23/conf/     #切换至指定目录
[root@apache conf]# vim httpd.conf
            ..............#省略部分内容
Include conf/extra/httpd-mpm.conf     #定位httpd-mpm到此,去除开头的注释符号
            ..............#省略部分内容
LoadModule mpm_event_module modules/mod_mpm_event.so
#LoadModule mpm_prefork_module modules/mod_mpm_prefork.so
#LoadModule mpm_worker_module modules/mod_mpm_worker.so    #定位worker至此行
#上面三行就是就是apache服务的三种工作模式,需要那种工作模式,只需要将原来的工作模式注释掉
#然后将所需要的工作模式那行去掉注释符号,然后再启动服务即可(注意是启动,不是重启)

            ..............#省略部分内容
#如,我现在将其改为worker工作模式,那么,配置如下:
Include conf/extra/httpd-mpm.conf     #定位httpd-mpm到此,去除开头的注释符号
            ..............#省略部分内容
#LoadModule mpm_event_module modules/mod_mpm_event.so
#LoadModule mpm_prefork_module modules/mod_mpm_prefork.so
LoadModule mpm_worker_module modules/mod_mpm_worker.so
[root@apache conf]# /etc/init.d/httpd restart     #重启时,可能会提示以下信息,是因为域名的原因,不碍事
AH00558: httpd: Could not reliably determine the server's fully qualified domain name, using fe80::c94:cd92:5c18:a1. Set the 'ServerName' directive globally to suppress this message
#若想要解决那些提示信息,可以打开apache的主配置文件进行更改:
[root@apache conf]# pwd        #确定当前路径
/usr/local/http-2.4.23/conf
[root@apache conf]# vim httpd.conf      #打开文件,更改下面的那行,其为本机IP,若有域名,可以直接写域名
ServerName 192.168.20.4        #去掉开头的注释符号
[root@apache conf]# /etc/init.d/httpd -V            #再次查看apache的工作模式
Server version: Apache/2.4.23 (Unix)
Server built:   Oct 10 2019 20:52:01
Server's Module Magic Number: 20120211:61
Server loaded:  APR 1.5.2, APR-UTIL 1.5.4
Compiled using: APR 1.5.2, APR-UTIL 1.5.4
Architecture:   64-bit
Server MPM:     worker           #可以发现更改生效了
            ..............#省略部分内容

四、apache工作模式的优化与修改
在上面改工作模式,其实是调用了别的地方的配置文件,其调用的配置文件就是conf/extra/httpd-mpm.conf,这也就是为什么在上面更改工作模式时,需要先去掉Include conf/extra/httpd-mpm.conf 这行的注释了,就是为了调用这个配置文件。

[root@apache conf]# cat extra/httpd-mpm.conf | egrep -v '^#|^$'   #查看其文件内容,并且过滤掉注释及空行
<IfModule !mpm_netware_module>
    PidFile "logs/httpd.pid"
</IfModule>                 
<IfModule mpm_prefork_module>       <!--这就是prefork工作模式的参数-->
    StartServers             5        <!--apache启动时默认开启的子进程数-->
    MinSpareServers          5    <!--最小的闲置子进程数-->
    MaxSpareServers         10  <!--最大的闲置子进程数-->
    MaxRequestWorkers      250
         <!-- 
         MaxRequestWorkers最为重要,它设置了允许同时的最大接入请求数量。任何超过
         MaxRequestWorkers限制的请求将进入等候队列,在apache2.3.1版本
         MaxRequestWorkers被称为MaxClients,现在仍支持此名字
         -->
    MaxConnectionsPerChild   0
     <!--
     MaxConnectionsPerChild设置的是每个子进程可处理的请求数,每个子进程在处理了
     “MaxConnectionsPerChild”个请求后将自动销毁。0表示无限制,即子进程永不销毁。
     虽然缺省设为 0 可以使每个子进程处理更多的请求,但如果设成非零值也有两点重要的好处:
     1、可防止意外的内存泄漏。
     2、在服务器负载下降的时侯会自动减少子进程数。因此,可根据服务器的负载来调整这个值。
     在 Apache2.3.9 之前称之为 MaxRequestsPerChild。
     -->
     <!--prefork控制进程在最初建立“StartServers”个子进程后,为了满足“MinSpareServers”
     设置的需要创建一个进程,等待一秒钟,继续创建两个,再等待一秒钟,继续创建四个....
     如此按照此等级增加创建的进程数,最多达每秒钟32个,直到满足MinSpareServers设置
     的值为止。这种模式 可以不必在请求到来时再产生新的进程,从而减小了系统开销以增加性能。
MaxSpareServers 设置了最大的空闲进程数,如果空闲进程数大于这个 值,Apache 会自动 
kill掉一些多余进程。这个值不要设得过大,但如果设的值比 MinSpareServers 小,Apache 
会自动把其调整为 MinSpareServers+1。如果站点负载较大,
可考虑同时加大MinSpareServers 和MaxSpareServers。-->
</IfModule>
<IfModule mpm_worker_module>    <!--这是worker工作模式的参数-->
    StartServers             3   <!--apache启动时默认开始的子进程数-->
    MinSpareThreads         75   <!--最小空闲数量的工作线程-->
    MaxSpareThreads        250    <!--最大空闲数量的工作线程-->
    ThreadsPerChild         25  <!--每个子进程产生的线程数量-->
    MaxRequestWorkers      400   <!--与prefork模式相同-->
    MaxConnectionsPerChild   0   <!--与prefork模式相同-->
</IfModule>
<IfModule mpm_event_module>    
<!--这是event工作模式的参数,每个配置项的含义与worker基本相似-->
    StartServers             3
    MinSpareThreads         75
    MaxSpareThreads        250
    ThreadsPerChild         25
    MaxRequestWorkers      400
    MaxConnectionsPerChild   0
</IfModule>
<!--以下内容暂时不用看-->
<IfModule mpm_netware_module>
    ThreadStackSize      65536
    StartThreads           250
    MinSpareThreads         25
    MaxSpareThreads        250
    MaxThreads            1000
    MaxConnectionsPerChild   0
</IfModule>
<IfModule mpm_mpmt_os2_module>
    StartServers             2
    MinSpareThreads          5
    MaxSpareThreads         10
    MaxConnectionsPerChild   0
</IfModule>
<IfModule mpm_winnt_module>
    ThreadsPerChild        150
    MaxConnectionsPerChild   0
</IfModule>
<IfModule !mpm_netware_module>
    MaxMemFree            2048
</IfModule>
<IfModule mpm_netware_module>
    MaxMemFree             100
</IfModule>

由于上述配置文件解释起来过于繁琐,这里附加一张图,可以参考此图来更改上述配置:

现在我这里的工作模式为worker,可以更改其上述的配置项,以便优化其性能,更改如下(我会故意更改的值超出其范围,制造错误,并且写出其错误解决方案):

[root@apache extra]# pwd     <!--确定当前路径-->
/usr/local/http-2.4.23/conf/extra
[root@apache extra]# vim httpd-mpm.conf    <!--编辑该文件,更改如下-->
<IfModule mpm_worker_module>     <!--就更改worker模块-->
    StartServers             5
    MinSpareThreads         150
    MaxSpareThreads        200001
    ThreadsPerChild         25
    MaxRequestWorkers      400
    MaxConnectionsPerChild   0
</IfModule>
[root@apache extra]# /etc/init.d/httpd restart         <!--重启服务-->
[root@apache extra]# ps -ef | grep httpd | wc -l   
8    <!--共8行,其中一个是主进程,还有一个是不相干的,所以要减2,就是说,有6个子进程,
而配置文件中定义的每个子进程有25个线程,也就满足了最小空闲线程150,若将最小空闲
子进程项改为200,那么重启后,等待1秒左右,就会发现又多了两个子进程,以便满足最小空闲子进程-->

在上面的配置中虽然MaxSpareThreads的值为200001(肯定超过了它的最大范围),但重启时还是没有报错,原因就是MaxRequestWorkers的值还是400,这个值生效了,拦截了MaxSpareThreads的值,所以没有报错,那么接下来再将其更改如下:

[root@apache extra]# vim httpd-mpm.conf      <!--编辑配置文件,将值都修改的大些-->
<IfModule mpm_worker_module>
    StartServers             300
    MinSpareThreads         200
    MaxSpareThreads        2000001
    ThreadsPerChild         25
    MaxRequestWorkers      200001      <!--将此处的值也修改的大点-->
    MaxConnectionsPerChild   0
</IfModule>
[root@apache extra]# /etc/init.d/httpd restart     <!--重启服务,会提示以下信息-->
AH00316: WARNING: MaxRequestWorkers of 200001 is not an integer multiple of ThreadsPerChild of 25, decreasing to nearest multiple 200000, for a maximum of 8000 servers.
AH00318: WARNING: MaxRequestWorkers of 200000 would require 8000 servers and would exceed ServerLimit of 16, decreasing to 400. To increase, please see the ServerLimit directive.
<!--翻译如下:AH00316:警告:MaxRequestWorkers的200001不是ThreadsPerChild的25的整数倍,减少到最近的200000的倍数,最多8000个服务器。
AH00318:警告:MaxRequestWorkers的200000将需要8000个服务器,将超过服务器限制16,减少到400。要增加,请参阅ServerLimit指令。-->
<!--根据提示信息,需要进行以下更改-->
[root@apache extra]# vim httpd-mpm.conf       <!--编辑配置文件,更改如下-->
<IfModule mpm_worker_module>
    ServerLimit             2000
    StartServers             80
    MinSpareThreads         200
    MaxSpareThreads        2000
    ThreadsPerChild         25
    MaxRequestWorkers      2000
    MaxConnectionsPerChild   0
</IfModule>
[root@apache extra]# /etc/init.d/httpd restart      <!--再次重启,就没有那些提示信息了-->

在上面的配置项中,各个配置项的值都是有默认的限制的,若想改变其限制,则需要在配置项的上一行增加ServerLimit配置项,而且ServerLimit配置项也是有最大限制的,若要修改各种值,建议仔细阅读下面的内容,再进行更改。

  • worker 由主控制进程生成“StartServers”个子进程,每个子进程中包含固定的ThreadsPerChild 线程数,各个线程独立地处理请求。同样, 为了不在请求到来时再生成线程,MinSpareThreads 和 MaxSpareThreads 设置了最少和最多的空闲线程数。而 MaxRequestWorkers 设置了同时连入的 clients 最大总数。如果现有子进程中的线程总数不能满足负载,控制进程将派生新的子进程MinSpareThreads 和 MaxSpareThreads 的最大缺省值分别是 75 和 250。这两个参数对 Apache的性能影响并不大,可以按照实际情况相应调节 。
  • ThreadsPerChild 是 worker MPM 中与性能相关最密切的指令。ThreadsPerChild 的最大缺省值是 64,如果负载较大,64 也是不够的。这时要显式使用 ThreadLimit 指令,它的最大缺省值是 20000。
  • Worker 模式下所能同时处理的请求总数是由子进程总数乘以 ThreadsPerChild 值决定的,应该大于等MaxRequestWorkers。如果负载很大,现有的子进程数不能满足时,控制进程会派生新的子进程。默认最大的子进程总数是 16,加大时 也需要显式声明 ServerLimit(系统配置的最大进程数量,最大值是20000)。需要注意的是,如果显式声明了 ServerLimit,那么它乘以 ThreadsPerChild的值必须大于等于MaxRequestWorkers,而且MaxRequestWorkers必须是 ThreadsPerChild 的整数倍,否则 Apache 将会自动调节到一个相应值。

五、进程与线程的区别

线程就是指进程内的一个执行单元,也是进程内的可调度实体。
与进程的区别:

  • 地址空间:进程内的一个执行单元;进程至少有一个线程;它们共享进程的地址空间;而进程有自己独立的地址空间;
  • 资源拥有:进程是资源分配和拥有的单位,同一个进程内的线程共享进程的资源;
  • 线程是处理器调度的基本单位,但进程不是;
  • 二者均可并发执行;

进程和线程都是由操作系统所体会的程序运行的基本单元,系统利用该基本单元实现系统对应用的并发性。
进程和线程的区别在于:
简而言之,一个程序至少有一个进程,一个进程至少有一个线程。
线程的划分尺度小于进程,使得多线程程序的并发性高。
另外,进程在执行过程中拥有独立的内存单元,而多个线程共享内存,从而极大地提高了程
序的运行效率。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
APACHE 2.2.9+TOMCAT6.0.18配置负载均衡 目标: 使用 apachetomcat 配置一个可以应用的 web 网站,要达到以下要求: 1、 Apache 做为 HttpServer ,后面连接多个 tomcat 应用实例,并进行负载均衡。 2、 为系统设定 Session 超时时间,包括 Apachetomcat 3、 为系统屏蔽文件列表,包括 Apachetomcat 注:本例程以一台机器为例子,即同一台机器上装一个apache和4个Tomcat。 一、 前期准备工作:安装用的程序(前提保证已安装了JDK1.5以上的版本) jdk1.6.0_18下载: http://java.sun.com/javase/downloads/index.jsp APAHCE 2.2.14下载:apache_2.2.14-win32-x86-no_ssl.msi http://httpd.apache.org/download.cgi下载 TOMCAT6.0.20下载:apache-tomcat-6.0.20.zip直接解压。http://tomcat.apache.org/download-60.cgi Jdk安装目录下D:\toots\Java\jdk1.6.0_18\bin\msvcr71.dll复制到C:\WINDOWS\system32下 二、 安装过程 设置环境变量: JAVA_HOME= D:\toots\Java\jdk1.6.0_18 classpath=.;%JAVA_HOME%\lib\dt.jar;%JAVA_HOME%\lib\tools.jar;(.;一定不能少,因为它代表当前路径) path=%JAVA_HOME%\bin APAHCE安装目录:D:\toots\Apache下 四个TOMCAT目录:自行解压到(D:\toots\)下。分别为 tomcatA,tomcatB,tomcatC,tomcatD 三、配置 1、Apache配置 1.1、httpd.conf配置 修改APACHE的配置文件D:\toots\Apache \conf\httpd.conf 将以下Module的注释去掉,这里并没有使用mod_jk.so进行apachetomcat的链接,从2.X以后apache自身已集成了mod_jk.so的功能。只需简单的把下面几行去掉注释,就相当于以前用mod_jk.so比较繁琐的配置了。这里主要采用了代理的方法,就这么简单。 LoadModule proxy_module modules/mod_proxy.so LoadModule proxy_connect_module modules/mod_proxy_connect.so LoadModule proxy_ftp_module modules/mod_proxy_ftp.so LoadModule proxy_http_module modules/mod_proxy_http.so LoadModule proxy_ajp_module modules/mod_proxy_ajp.so LoadModule proxy_balancer_module modules/mod_proxy_balancer.so 再找到<IfModule dir_module></IfModule>加上index.jsp修改成 <IfModule dir_module> DirectoryIndex index.html index.jsp </IfModule> 1.1.1、 在最下面加入 ProxyRequests Off <proxy balancer://cluster> BalancerMember ajp://127.0.0.1:9001 loadfactor=1 route=jvm1 BalancerMember ajp://127.0.0.1:9002 loadfactor=1 route=jvm2 BalancerMember ajp://127.0.0.1:9003 loadfactor=1 route=jvm3 BalancerMember ajp://127.0.0.1:9004 loadfactor=1 route=jvm4 <proxy > 上面的四个BalancerMember成员是我们配置的tomcat集群。后面会说明的 1.2、httpd-vhosts.conf设置 接下来进行虚拟主机的设置。APACHE的虚拟主机设置如下: 首先要修改 conf/httpd.conf找到 (#Include conf/extra/httpd-vhosts.conf)把注释去掉。 # Virtual hosts Include conf/extra/httpd-vhosts.conf 在文件(D:/toots/Apache/conf/extra/httpd-vhosts.conf)最下面加入 <VirtualHost *:80> ServerAdmin rosi@126.com DocumentRoot "D:/toots/Apache/docs/dummy-host3.localhost"//你的安装目录 ServerName localhost//服务名(域名) ServerAlias localhost//服务别名 ProxyPass / balancer://cluster/ stickysession=jsessionid nofailover=On ProxyPassReverse / balancer://cluster/ </VirtualHost> 其中的域名和路径根据你自己情况设置 然后再设置TOMCAT虚拟主机 2 配置 tomcat 2.1. 配置 server 的关闭 我们需要在一台机器上跑 4 个不同的 tomcat ,需要修改不同的 tomcat 的关闭口,避免出现端口被占用的情况。在 TomcatA\conf, TomcatB\conf, TomcatC\conf下和 TomcatD\conf下的 server.xml 中找到 server, 将: <Server port="8005" shutdown="SHUTDOWN"> 改为 <Server port="XXXX" shutdown="SHUTDOWN"> XXXX 在这里表示不同的端口:我的其它四个 tomcat 分别使用 9006,9007,9008 , 9009 2.2. 配置 Engine 把原来的配置注释掉,把下面一句去掉注释。并标明jvmRoute="jvm2". <Engine name="Catalina" defaultHost="localhost" jvmRoute="jvm2"> 以下是原来的配置。 <!-- <Engine name="Catalina" defaultHost="localhost"> --> 其他(tomcat6.02和tomcat6.03)也要同样 配置。注意:jvmRoute配置不要一样。 <Engine name="Catalina" defaultHost="localhost" jvmRoute="jvm3"> <Engine name="Catalina" defaultHost="localhost" jvmRoute="jvm4"> 2.3. 配置 Connector 原来的默认配置。 <!-- Define an AJP 1.3 Connector on port 8009 --> <Connector port="8009" protocol="AJP/1.3" redirectPort="8443" /> 这里是apachetomcat链接的关键,前台apache就是通过AJP协议与tomcat进行通信的,以完成负载均衡的作用。也可以用HTTP协议。大家注意它们是如何连接通信的,上面的红色部分(port="8009")就是连接的接口了。 把四个tomcat的<Connector port="XXX" />port分别改成与上面 <proxy balancer://cluster> #与tomcatA对应,route与<Engine jvmRoute="jvm1">对应。 BalancerMember ajp://127.0.0.1:9001 loadfactor=1 route=jvm1 #与tomcatB对应,route与<Engine jvmRoute="jvm2">对应。 BalancerMember ajp:// 127.0.0.1:9002 loadfactor=1 route=jvm2 #与tomcatC对应,route与<Engine jvmRoute="jvm3">对应。 BalancerMember ajp:// 127.0.0.1:9003 loadfactor=1 route=jvm3 #与tomcatD对应,route与<Engine jvmRoute="jvm4">对应。 BalancerMember ajp:// 127.0.0.1:9004 loadfactor=1 route=jvm4 </proxy> 中的端口对应, tomcatA改为 <Connector port="9001" protocol="AJP/1.3" redirectPort="8441" /> .tomcatB改为 <Connector port="9002" protocol="AJP/1.3" redirectPort="8442" /> tomcatC改为 <Connector port="9003" protocol="AJP/1.3" redirectPort="8443" /> tomcatD改为 <Connector port="9004" protocol="AJP/1.3" redirectPort="8444" /> <Connector executor="tomcatThreadPool" port="8081" protocol="HTTP/1.1" connectionTimeout="20000" redirectPort="9441" /> <Connector executor="tomcatThreadPool" port="8082" protocol="HTTP/1.1" connectionTimeout="20000" redirectPort="9442" /> <Connector executor="tomcatThreadPool" port="8083" protocol="HTTP/1.1" connectionTimeout="20000" redirectPort="9443" /> <Connector executor="tomcatThreadPool" port="8084" protocol="HTTP/1.1" connectionTimeout="20000" redirectPort="9444" /> 一定要与上面的一致。同时也要把redirectPort的值改成唯一的,确保四个tomcat的都不一样。 2.4.配置Cluster(每个tomcat中都要修改) 原来的配置。 <Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"/> 修改为以下的代码:<Receiver port=”XX”/>port也要保证唯一性, tomcatA改为 <Receiver port="5001" .tomcatB改为 <Receiver port="5002" tomcatC改为<Receiver port="5003" tomcatD改为 <Receiver port="5004" 确保四个tomcat的都不一样。以下是tomcatA的内容红色部分,分别是5001,5002,5003,5004. <Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster" channelSendOptions="6"> <Manager className="org.apache.catalina.ha.session.BackupManager" expireSessionsOnShutdown="false" notifyListenersOnReplication="true" mapSendOptions="6"/> <!-- <Manager className="org.apache.catalina.ha.session.DeltaManager" expireSessionsOnShutdown="false" notifyListenersOnReplication="true"/> --> <Channel className="org.apache.catalina.tribes.group.GroupChannel"> <Membership className="org.apache.catalina.tribes.membership.McastService" address="228.0.0.4" port="45564" frequency="500" dropTime="3000"/> <Receiver className="org.apache.catalina.tribes.transport.nio.NioReceiver" address="auto" port="5001" selectorTimeout="100" maxThreads="6"/> <Sender className="org.apache.catalina.tribes.transport.ReplicationTransmitter"> <Transport className="org.apache.catalina.tribes.transport.nio.PooledParallelSender"/> </Sender> <Interceptor className="org.apache.catalina.tribes.group.interceptors.TcpFailureDetector"/> <Interceptor className="org.apache.catalina.tribes.group.interceptors.MessageDispatch15Interceptor"/> <Interceptor className="org.apache.catalina.tribes.group.interceptors.ThroughputInterceptor"/> </Channel> <Valve className="org.apache.catalina.ha.tcp.ReplicationValve" filter=".*\.gif;.*\.js;.*\.jpg;.*\.png;.*\.htm;.*\.html;.*\.css;.*\.txt;"/> <Deployer className="org.apache.catalina.ha.deploy.FarmWarDeployer" tempDir="/tmp/war-temp/" deployDir="/tmp/war-deploy/" watchDir="/tmp/war-listen/" watchEnabled="false"/> <ClusterListener className="org.apache.catalina.ha.session.ClusterSessionListener"/> </Cluster> 这个设置是主要用以tomcat的集群。 把解压缩版的tomcat6注册成服务并设置自启动 当然,这样注册出来的服务启动类型是手动的,如果想设置为开机自动启动,则需要修改 注册服务自启动: bin目录下的service.bat文件 打开此文件,在倒数第三行左右的那句输出 echo The service '%SERVICE_NAME%' has been installed. 这句是输出服务安装成功,在这之前加一句 sc config %SERVICE_NAME% start= auto 就OK了,以后开机后tomcat服务就自动启动了 注册服务: 首先,在开始->运行中敲cmd,进入MS-DOS界面 cd 到tomcat的bin目录下 运行命令service install TomcatA 就可以把tomcat注册成系统服务了,服务的名称是TomcatA 删除服务运行 service uninstall TomcatA 就可以了 四、启动服务,测试tomcat自带的例子 1、测试apachetomcat协作。 先在每个tomcat中的\webapps\ROOT下的index.jsp下面加上以下的测试代码部分:(X代表不同的tomcat的输出不同的信息),把index.html删除,以免影响测试效果。在最后面的加上.即</table></body>之间。 <% System.out.println("tomcat6.0X deal with request"); %> 然后再通过http://localhost来访问一下,就会出现大家熟悉的猫猫。 然后再通过分别访问 http:// 127.0.0.1:8081, http:// 127.0.0.1:8082, http:// 127.0.0.1:8083, http:// 127.0.0.1:8084 它们访问的内容和上面的http:// 127.0.0.1是一样的。 这样就说明apacheTOMCAT整合成功! 这样就说明apacheTOMCAT整合成功! 2、测试均衡器 通过http:// 127.0.0.1多次访问,要想看到真正的效果,必须用一些压力测试工具,可用微软Microsoft Web Application Stress Tool进行简单压力测试,不然你靠不停刷新是体现不出来的,你只会在一个tomcat的控制台有输出结果。只用用压力测试工具模拟大量用户同时访问,你会发现四个tomcat控制台均有打出控制信息,说明均衡器工作正常。 3、测试Session复制 访问url: http://localhost/examples/servlet/SessionExample 可以得到一个关于session的例子,我们用它来测试集群的错误恢复能力。 测试步骤如下: 关闭tomcat1和tomcat2; 启动tomcat1 在浏览器中输入属性名tomcat1和属性值tomcat1再提交,返回的页面显示session中有刚刚输入的tomcat1属性; 启动tomcat2; 过一会后(等待tomcat2和tomcat1通信并复制信息)关闭tomcat1; 在浏览器中输入属性名tomcat2和属性值tomcat2再提交,返回的页面显示session中有刚刚输入的tomcat2属性,还有先前输入的tomcat1属性; 启动tomcat1; 过一会后(等待tomcat2和tomcat1通信并复制信息)关闭tomcat2; 在浏览器中输入属性名tomcat11和属性值tomcat11再提交,返回的页面显示session中有刚刚输入的tomcat11属性,还有先前输入的tomcat1和tomcat2属性; 域名绑定与虚拟目录设置: server.xml 的修改方式如下: (一)多域名绑定 2.接下来就是重点了哈哈... 单个域名绑定: 原始: <Engine name="Catalina" defaultHost="localhost"> <Host name="localhost" appBase="webapps" unpackWARs="true" autoDeploy="true" xmlValidation="false" xmlNamespaceAware="false" /> </Engine> 当然这里我把注释代码统统删除掉了,省的碍眼 修改后: <Host name="chengqun.202.71one.com" debug="0" appBase="webapps" unpackWARs="true" autoDeploy="true" xmlValidation="false" xmlNamespaceAware="false"> <Context path="/" docBase="d:\wwwroot\chengqun"></Context> </Host> <Host name="chengqun1.202.71one.com" debug="0" appBase=" webapps" unpackWARs="true" autoDeploy="true" xmlValidation="false" xmlNamespaceAware="false"> <Context path="/" docBase="d:\wwwroot\chengqun1"></Context> </Host> 多域名绑定: <Host name="chengqun.202.71one.com" debug="0" appBase="webapps" unpackWARs="true" autoDeploy="true" xmlValidation="false" xmlNamespaceAware="false"> <Alias>chengqun.202.71one.com</Alias> <Alias>chengqun1.202.71one.com</Alias> <Alias>chengqun2.202.71one.com</Alias> <Context path="/" docBase="d:\ EDirectSalesroot "></Context> </Host> 虚拟目录d:\ EDirectSalesroot的目录下建立WEB-INF 目录,再将…Tomcat 6.0\webapps\ROOT\WEB-INF 目录中的web.xml 文件拷贝到虚拟目录下建立WEB-INF 子目录中.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值