手把手让你实现开源企业级web高并发解决方案

本来想起个比较风趣点的标题,可想来思去,还是走常规路线,做一系列的手把手吧。
这样一来,便于我的老朋友们识别,也让我对这篇文章的粒度把我有个定位。
本篇博文主要介绍利用开源的解决方案,来为企业搭建web高并发服务器架构花了一个多小时,画了张图片,希望能先帮你理解整个架构,之后我在一一介绍.linux的大型架构其实是一点点小架构拼接起来的,笔者从各个应用开始配置,最后在完全整合起来,以实现效果。

笔者所使用的环境为RHEL5.4 内核版本2.6.18 实现过程在虚拟机中,所用到的安装包为DVD光盘自带rpm包
装过 Development Libraries Development Tools 包组

笔者所使用的环境为RHEL5.4 内核版本2.6.18 实现过程在虚拟机中,所用到的安装包为DVD光盘自带rpm包
装过 Development Libraries Development Tools 包组
笔者虚拟机有限,只演示单边varnish配置

一、配置前端LVS负载均衡

笔者选用LVS的DR模型来实现集群架构,如果对DR模型不太了了解的朋友建议先去看看相关资料。
本模型实例图为:

现在director上安装ipvsadm,笔者yum配置指向有集群源所以直接用yum安装。
yum install ipvsadm

下面是Director配置:
DIP配置在接口上 172.16.100.10
VIP配置在接口别名上:172.16.100.1
varnish服务器配置:RIP配置在接口上:172.16.100.11 ;VIP配置在lo别名上

如果你要用到下面的heartbeat的ldirectord来实现资源转换,则下面的#Director配置不用配置

 
  1. # Director配置
  2. ifconfigeth0172.16.100.10/16
  3. ifconfigeth0:0172.16.100.1broadcast172.16.100.1netmask255.255.255.255up
  4. routeadd-host172.16.100.1deveth0:0
  5. echo1>/proc/sys/net/ipv4/ip_forward
 
  1. #varnish服务器修改内核参数来禁止响应对VIP的ARP广播请求
  2. echo1>/proc/sys/net/ipv4/conf/lo/arp_ignore
  3. echo1>/proc/sys/net/ipv4/conf/all/arp_ignore
  4. echo2>/proc/sys/net/ipv4/conf/lo/arp_announce
  5. echo2>/proc/sys/net/ipv4/conf/all/arp_announce
 
  1. #配置VIP
  2. ifconfiglo:0172.16.100.1broadcast172.16.100.1netmask255.255.255.255up
  3. #凡是到172.16.100.1主机的一律使用lo:0响应
  4. routeadd-host172.16.100.1devlo:0
 
  1. #在Director上配置Ipvs,笔者虚拟机有限,只演示单台配置
  2. ipvsadm-A-t172.16.100.1:80-swlc
  3. ipvsadm-a-t172.16.100.1:80-r172.16.100.11-g-w2
  4. ipvsadm-Ln

至此,前端lvs负载均衡基本实现,下面配置高可用集群

二、heartbeat高可用集群

本应用模型图:

高可用则是当主服务器出现故障,备用服务器会在最短时间内代替其地位,并且保证服务不间断。

简单说明:从服务器和主服务器要有相同配置,才能在故障迁移时让无界感受不到,从而保证服务不间断运行。在你的两台机器(一台 作为主节点,另一台为从节点)上运行heartbeat, 并配置好相关的选项,最重要的是lvs资源一定要配置进去。那么开始时主节点提供lvs服务,一旦主节点崩溃,那么从节点立即接管lvs服务。

SO:
director主服务器和从服务器都有两块网卡,一块eth0是和后面varnish服务器通信,另一块eth1是彼此之间监听心跳信息和故障迁移是资源转移。笔者用的eth0是172.16.100.0网段 vip为172.16.100.1 监听心跳为eth1网卡,主从的IP分别为10.10.10.1(node1) 和10.10.10.2(node2)
修改上面模型图两台主从服务器的信息

 
  1. vim/etc/hosts
  2. 10.10.10.1node1.heartbeat.comnode1
  3. 10.10.10.2node2.heartbeat.comnode2
  4. #用于实现两台director节点间域名解析,此操作node1、node2相同
 
  1. vim/etc/sysconfig/network
  2. #设置主机名
  3. hostnamenode1.heartbeat.com
  4. #修改主机名使之立即生效,node2也同样修改为node2.heartbeat.com

为了安全起见,node1和node2的通信需要加密进行

  1. ssh-keygen-trsa
  2. #生成密钥
  3. ssh-copy-id-i.ssh/id_rsa.pubroot@node2.heartbeat.com
  4. #将公钥复制给node2
  5. sshnode2--ifconfig
  6. #执行命令测试,此时应该显示node2的ip信息

准备工作完成,下面开始安装heartbeat和ldirectord
所需要的安装包为

本人直接用yum来实现,能自动解决依赖关系 ,node1和node2都需要安装

  1. yumlocalinstall-y--nogpgcheck./*
  2. #安装此目录中的所有rpm包

安装后配置:

 
  1. cd/usr/share/doc/heartbeat-2.1.4
  2. cpauthkeys/etc/ha.d/
  3. cpharesources/etc/ha.d/
  4. cpha.cf/etc/ha.d/
  5. #拷贝heartbeat所需配置文件到指定目录下
 
  1. vim/etc/ha.d/ha.cf
  2. bcasteth1
  3. #定义心跳信息从那一块网卡传输
  4. nodenode1.heartbeat.com
  5. nodenode2.heartbeat.com
  6. #添加这两行,用于指明心跳信号传输范围
  7. vim/etc/ha.d/authkeys
  8. auth2
  9. 2sha1[键入随机数]
  10. chmod400authkeys
  11. #保存退出并修改权限400
  12. vim/etc/ha.d/haresource
  13. node1.heartbeat.com172.16.100.1/24/eth0/172.16.0.255ldirectord::ldirectord.cf httpd
  14. #末行添加主节点域名,vip资源,广播地址,ldirectord资源,以及用户提供显示错误页面的httpd资源

同步配置文件到node2

 
  1. /usr/lib/heartbeat/ha_propagate
  2. #脚本用来同步ha.cf和authkeys文件到node2
  3. scpharesourcesnode2:/etc/ha.d/
  4. #复制haresource到nod2

配置ldirectord,同步配置文件

 
  1. cp/usr/share/doc/heartbeat-ldirectord-2.1.4/ldirectord.cf/etc/ha.d/ldirectord.cf
  2. #复制ldirector的配置文件

内容如下配置

 
  1. checktimeout=5
  2. #当DR收不到realserver的回应,设定几秒后判定realserver当机或挂掉了,预设5秒。
  3. checkinterval=3
  4. #查询间隔,每个几秒侦测一次realserver
  5. autoreload=yes
  6. #配置文件发生改变是否自动重读
  7. quiescent=yes
  8. #静态链接,yes:表示侦测realserver宕机,将其权值至零(如果开启了persistent参数不要用yes);no:表示侦测到宕机realserver,随即将其对应条目从ipvsadm中删除。
  9. virtual=172.16.100.1:80
  10. real=172.16.100.11:80gate4
  11. fallback=127.0.0.1:80gate#realserver全部失败,vip指向本机80端口。
  12. service=http
  13. request="test.html"#用于健康检测的url,realserver的相对路径为var/www/html目录
  14. receive="ok"#用于健康检测的url包含的关键字
  15. scheduler=wlc
  16. #persistent=600
  17. #持久链接:表示600s之内同意ip将访问同一台realserver
  18. protocol=tcp
  19. checktype=negotiate
  20. #检查类型:negotiate,表示DR发送请求,realserver恢复特定字符串才表示服务正常;connect,表示DR能够连线realserver即正常。
  21. checkport=80

启动两个节点上的heartbeat

 
  1. serviceheartbeatstart
  2. sshnode2--'serviceheartbeatstart'
  3. #启动两节点heartbeat服务

启动后查看/var/log/messages 可以看到启动过程,并可以手动执行/usr/lib/heartbeat/下的hb_standby 来释放资源hb_takeover来争夺资源

还可以通过ipvsadm -Ln 在主节点上查看lvs的资源状态

至此,带状态检测的前端集群已经布置完毕,下面就是varnish缓存服务器和后端nginx的web应用配置

三:varnish缓存服务器

可以去varnish的官网下载最新的源码包,笔者为了便于演示,就用rpm包了,(别鄙视我)
varnish官网地址:http://www.varnish-cache.org/
我下的是最新的varnish-release-3.0-1.noarch.rpm
先rpm -ivh varnish-release-3.0-1.noarch.rpm

它的作用是给你yum生成varnish的仓库,然后你在用yum安装varnish
yum install varnish

安装好后配置文件为/etc/default.vcl
本人只实现基本功能,没有对varnish做优化,所以配置比较简单

配置完成后保存退出,需手动启动
varnishd -f /etc/varnish/default.vcl -s malloc,128m -T 127.0.0.1:2000
-f etc/varnish/default.vcl -f 指定varnishd使用哪个配置文件。
-s malloc,1G -s用来指定varnish使用的存储类型和存储容量。我使用的是 malloc 类型(malloc 是一个 C 函数,用于分配内存空间), 1G 定义多少内存被 malloced。
-T 127.0.0.1:2000 -T 指定varnish的管理端口。Varnish有一个基于文本的管理接口,启动它的话可以在不停止 varnish 的情况下来管理 varnish。您可以指定管理软件监听哪个接口。
-a 0.0.0.0:8080 指定varnish所监听所有IP发给80的http请求。如果不指定-a ,则为默认监听0.0.0.0:

ps:先配置nginx在配置varnish可以直接测试效果,本人为了演示架构层次,所以就一层一层的配置了,建议如果按我的顺序做的话,后端web服务器先用yum装上apache方便测试。varnish到此就配置成功。到此我在帮各位顺一下思路

目前,如果你完全按照本文章做实验,我们用了5台服务器。
一台director 它的vip为172.16.100.1 DIP为172.16.100.10
与它实现高可用的从服务器vip为172.16.100.1 DIP为 172.16.100.12
而这两台服务器都装的有heartbeat和ipvsadm 并通过ldirectord把VIP定义为资源,会自动流动,和自动添加ipvsadm分发条目
在ipvsadm中 定义的有一台varnish服务器 地址为172.16.100.11
varnish缓存服务器在做反向代理时后端是两台web服务器分别为web1和web2
IP分别为172.16.100.15和172.16.100.17 下图帮你顺下思路

四:nginx服务器+php+eAccelerator

(1)编译安装PHP 5.3.6所需的支持库:

 
  1. tarzxvflibiconv-1.13.1.tar.gz
  2. cdlibiconv-1.13.1/
  3. ./configure--prefix=/usr/local
  4. make
  5. makeinstall
  6. cd../
 
  1. tarzxvflibmcrypt-2.5.8.tar.gz
  2. cdlibmcrypt-2.5.8/
  3. ./configure
  4. make
  5. makeinstall
  6. /sbin/ldconfig
  7. cdlibltdl/
  8. ./configure--enable-ltdl-install
  9. make
  10. makeinstall
  11. cd../../
 
  1. tarzxvfmhash-0.9.9.9.tar.gz
  2. cdmhash-0.9.9.9/
  3. ./configure
  4. make
  5. makeinstall
  6. cd../
 
  1. ln-s/usr/local/lib/libmcrypt.la/usr/lib/libmcrypt.la
  2. ln-s/usr/local/lib/libmcrypt.so/usr/lib/libmcrypt.so
  3. ln-s/usr/local/lib/libmcrypt.so.4/usr/lib/libmcrypt.so.4
  4. ln-s/usr/local/lib/libmcrypt.so.4.4.8/usr/lib/libmcrypt.so.4.4.8
  5. ln-s/usr/local/lib/libmhash.a/usr/lib/libmhash.a
  6. ln-s/usr/local/lib/libmhash.la/usr/lib/libmhash.la
  7. ln-s/usr/local/lib/libmhash.so/usr/lib/libmhash.so
  8. ln-s/usr/local/lib/libmhash.so.2/usr/lib/libmhash.so.2
  9. ln-s/usr/local/lib/libmhash.so.2.0.1/usr/lib/libmhash.so.2.0.1
  10. ln-s/usr/local/bin/libmcrypt-config/usr/bin/libmcrypt-config
 
  1. tarzxvfmcrypt-2.6.8.tar.gz
  2. cdmcrypt-2.6.8/
  3. /sbin/ldconfig
  4. ./configure
  5. make
  6. makeinstall
  7. cd../

 
  1. cd php-5.3.6

    ./configure --prefix=/usr/local/php-fcgi --enable-fpm --with-config-file-path=/usr/local/php-fcgi/etc --enable-zend-multibyte --with-libxml-dir=/usr/local/libxml2 --with-gd --with-jpeg-dir --with-png-dir --with-bz2 --with-freetype-dir --with-iconv-dir --with-zlib-dir --with-curl --with-mhash --with-openssl --enable-bcmath --with-mcrypt=/usr/local/libmcrypt --enable-sysvsem --enable-inline-optimization --enable-soap --enable-gd-native-ttf --enable-ftp --enable-mbstring --enable-exif --disable-debug --disable-ipv6

    make

    make install

    cp php.ini-production /usr/local/php-fcgi/etc/php.ini

    mkdir /usr/local/php-fcgi/ext



编译安装PHP5扩展模块

 
  1. 修改php.ini文件
  2. 手工修改:
  3. 查找/usr/local/php/etc/php.ini中的extension_dir="./"
  4. 修改为
  5. extension_dir="/usr/local/php-fcgi/lib/php/extensions/no-debug-non-zts-20090626"
  6. 增加以下几行
  7. extension="memcache.so"
  8. 再查找output_buffering=Off修改为On
  9. 再查找;cgi.fix_pathinfo=0去掉“;”号,防止Nginx文件类型错误解析漏洞。

  1. (6)配置eAccelerator加速PHP:
  2. mkdir-p/usr/local/eaccelerator_cache
  3. vi/usr/local/php-fcgi/etc/php.ini
  4. 跳到配置文件的最末尾,加上以下配置信息:
  5. [eaccelerator]
  6. zend_extension="/usr/local/php-fcgi/lib/php/extensions/no-debug-non-zts-20090626eaccelerator.so"
  7. eaccelerator.shm_size="64"
  8. eaccelerator.cache_dir="/usr/local/eaccelerator_cache"
  9. eaccelerator.enable="1"
  10. eaccelerator.optimizer="1"
  11. eaccelerator.check_mtime="1"
  12. eaccelerator.debug="0"
  13. eaccelerator.filter=""
  14. eaccelerator.shm_max="0"
  15. eaccelerator.shm_ttl="3600"
  16. eaccelerator.shm_prune_period="3600"
  17. eaccelerator.shm_only="0"
  18. eaccelerator.compress="1"
  19. eaccelerator.compress_level="9"

创建www用户和组,以及虚拟主机使用的目录:

 
  1. /usr/sbin/groupaddwww
  2. /usr/sbin/useradd-gwwwwww
  3. mkdir-p/web
  4. chmod+w/web
  5. chown-Rwww:www/web

创建php-fpm配置文件

 
  1. cd/usr/local/php-fcgi/etc/
  2. cpphp-fpm.conf.defaultphp-fpm.conf
  3. vim!$
  4. #取消下面3行前的分号
  5. pm.start_servers=20
  6. pm.min_spare_servers=5
  7. pm.max_spare_servers=35

启动php-cgi进程,监听127.0.0.1的9000端口,

 
  1. ulimit-SHn65535
  2. /usr/local/php/sbin/php-fpmstart

安装Nginx 1.1.3

(1)安装Nginx所需的pcre库:

 
  1. tarzxvfpcre-8.10.tar.gz
  2. cdpcre-8.10/
  3. ./configure
  4. make&&makeinstall
  5. cd../

(2)安装Nginx

 
  1. tarzxvfnginx-1.1.3.tar.gz
  2. cdnginx-1.1.3/
  3. ./configure--user=www\
  4. --group=www\
  5. --prefix=/usr/local/nginx\
  6. --with-http_stub_status_module\
  7. --with-http_ssl_module
  8. make&&makeinstall
  9. cd../

(3)创建Nginx日志目录

 
  1. mkdir-p/web/logs
  2. chmod+w/web/logs
  3. chown-Rwww:www/web/logs

(4)创建Nginx配置文件

在/usr/local/nginx/conf/目录中创建nginx.conf文件:

 
  1. rm-f/usr/local/nginx/conf/nginx.conf
  2. vi/usr/local/nginx/conf/nginx.conf

输入以下内容:

user www www;

worker_processes 8; ## 根据自己的CPU来决定到底应该是多少
error_log /web/logs/nginx_error.log crit;
pid /usr/local/nginx/nginx.pid;

#Specifies the value for maximum file descriptors that can be opened by this process.
worker_rlimit_nofile 65535;

events
{
use epoll;
worker_connections 65535;
}

http
{
include mime.types;
default_type application/octet-stream;
#charset gb2312;
server_names_hash_bucket_size 128;
client_header_buffer_size 32k;
large_client_header_buffers 4 32k;

client_max_body_size 8m;
sendfile on;
tcp_nopush on;

keepalive_timeout 60;
tcp_nodelay on;

fastcgi_connect_timeout 300;
fastcgi_send_timeout 300;
fastcgi_read_timeout 300;
fastcgi_buffer_size 64k;
fastcgi_buffers 4 64k;
fastcgi_busy_buffers_size 128k;
fastcgi_temp_file_write_size 128k;

gzip on;
gzip_min_length 1k;
gzip_buffers 4 16k;
gzip_http_version 1.0;
gzip_comp_level 2;
gzip_types text/plain application/x-javascript text/css application/xml;
gzip_vary on;

#limit_zone crawler $binary_remote_addr 10m;

server
{
listen 80;
server_name 192.168.0.156; ## 这里简单测试,所以直接使用IP
index index.html index.htm index.php;
root /web;

#limit_conn crawler 20;

location ~ .*\.(php|php5)?$
{
#fastcgi_pass unix:/tmp/php-cgi.sock;
fastcgi_pass 127.0.0.1:9000;
fastcgi_index index.php;
include fcgi.conf;
}

location ~ .*\.(gif|jpg|jpeg|png|bmp|swf)$
{
expires 30d;
}

location ~ .*\.(js|css)?$
{
expires 1h;
}

location /status {
stub_status on; ## 开启状态统计,为后面的优化做测试
}

log_format access '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" $http_x_forwarded_for';

access_log /web/logs/access.log access;
}
}

②、在/usr/local/nginx/conf/目录中创建.conf文件:

 
  1. vi/usr/local/nginx/conf/fcgi.conf

输入以下内容:

fastcgi_param GATEWAY_INTERFACE CGI/1.1;
fastcgi_param SERVER_SOFTWARE nginx;
fastcgi_param QUERY_STRING $query_string;
fastcgi_param REQUEST_METHOD $request_method;
fastcgi_param CONTENT_TYPE $content_type;
fastcgi_param CONTENT_LENGTH $content_length;
fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name;
fastcgi_param SCRIPT_NAME $fastcgi_script_name;
fastcgi_param REQUEST_URI $request_uri;
fastcgi_param DOCUMENT_URI $document_uri;
fastcgi_param DOCUMENT_ROOT $document_root;
fastcgi_param SERVER_PROTOCOL $server_protocol;
fastcgi_param REMOTE_ADDR $remote_addr;
fastcgi_param REMOTE_PORT $remote_port;
fastcgi_param SERVER_ADDR $server_addr;
fastcgi_param SERVER_PORT $server_port;
fastcgi_param SERVER_NAME $server_name;
# PHP only, required if PHP was built with --enable-force-cgi-redirect
fastcgi_param REDIRECT_STATUS 200;

(5)启动Nginx

 
  1. ulimit-SHn65535
  2. /usr/local/nginx/sbin/nginx

(6)配置开机自动启动Nginx + PHP

 
  1. vim/etc/rc.local

在末尾增加以下内容:

ulimit -SHn 65535
/usr/local/php/sbin/php-fpm start
/usr/local/nginx/sbin/nginx

启动后用浏览器测试,能出PHP则配置成功

到这里,前端的应用基本就算完成了,接下来就是数据库了

五、mysql数据库+memcached

PHP 如何作为 memcached 客户端
有两种方法可以使 PHP 作为 memcached 客户端,调用 memcached 的服务进行对象存取操作。

第一种,PHP 有一个叫做 memcache 的扩展,Linux 下编译时需要带上 –enable-memcache[=DIR] 选项,编译完成后
并在php.ini配置文件中有这一项,而且库文件也有此文件
extension = "memcache.so"
除此之外,还有一种方法,可以避开扩展、重新编译所带来的麻烦,那就是直接使用 php-memcached-client。

二、memcached 服务端安装

首先是下载 memcached 了,目前最新版本是 v1.4.8,直接从官方网站即可下载到除此之外,memcached 用到了 libevent,

 
  1. #tar-xzflibevent-1ast.1a.tar.gz
  2. #cdlibevent-1.1a
  3. #./configure--prefix=/usr
  4. #make
  5. #makeinstall
  6. #cd..
  7. #tar-xzfmemcached-last.tar.gz
  8. #cdmemcached
  9. #./configure--prefix=/usr
  10. #make
  11. #makeinstall

安装完成后需要启动

memcached -d -m 50 -p 11211 -u root

参数说明:-m 指定使用多少兆的缓存空间;-p 指定要监听的端口; -u 指定以哪个用户来运行

接下来是要安装php的memcache模块与memcached通信修改php.ini

 
  1. 找到session.save_handler,并设为session.save_handler=memcache,把session.save_path前面的分号去掉,并设置为session.save_path=“tcp://127.0.0.1:11211″
  2. session.save_handler=memcache
  3. session.save_path=“tcp://172.16.100.50:11211″ #memcached所在服务器地址
  4. 或者某个目录下的.htaccess:
  5. php_valuesession.save_handler“memcache”
  6. php_valuesession.save_path“tcp://172.16.100.50:11211″#memcached所在服务器地址
  7. 再或者在某个一个应用中:

修改完后,重启php和nginx

之后编辑个测试页面test.php

 
  1. <?php
  2. error_reporting(E_ALL);
  3. $memcache=newMemcache;
  4. $memcache->connect('172.16.100.17',11211)ordie("Couldnotconnect");
  5. $memcache->set('key','Thisisatest!',0,60);
  6. $val=$memcache->get('key');
  7. echo$val;
  8. ?>

通过web浏览器访问成功图示如下:

 

至此,基本配置都已经完成,下面需要安装出来mysql,整个架构就基本实现了。

笔者在这里就不演示mysql的主主架构了,虚拟机真不够用了。给出一个二进制mysql的教程。

绿色二进制包安装MySQL 5.5.15

①:安装过程

 
  1. ##为MySQL建立用户和组
  2. groupadd-g3306mysql
  3. useradd-gmysql-u3306-s/sbin/nologin-Mmysql
  4. ##二进制安装方式
  5. tarxfmysql-5.5.15-linux2.6-i686.tar.gz-C/usr/local
  6. ln-sv/usr/local/mysql-5.5.15-linux.2.6-i686/usr/local/mysql
  7. mkdir/mydata##创建数据保存目录
  8. chown-Rmysql:mysql/mydata/
  9. cd/usr/local/mysql
  10. scripts/mysql_install_db--user=mysql--datadir=/mydata/data
  11. chown-Rroot.
  12. ##加入启动脚本
  13. cpsupport-files/mysql.server/etc/init.d/mysqld
  14. chkconfig--addmysqld
  15. ##修改配置文件
  16. cpsupport-files/my-large.cnf/etc/my.cnf
  17. ## 加入mySQL命令
  18. export PATH=$PATH:/usr/local/mysql/bin
  19. ## 定义头文件
  20. ln -sv /usr/local/mysql/include /usr/include/mysql
  21. ldconfig

②:配置过程

vim /etc/my.cnf
在[mysqld]段内加入并修改以下两处
datadir = /mydata/data
thread_concurrency 2
## (并发线程数,一般是cpu核心的两倍)

vim /etc/profile在里面加入:
PATH=$PATH:/usr/local/mysql/bin

vim /etc/ld.so.conf.d/mysql.conf写入
/usr/local/mysql/lib

③:启用过程

 
  1. servicemysqldstart
  2. cd /root/lnmp

输入以下SQL语句,创建一个具有root权限的用户(admin)和密码(12345678):
GRANT ALL PRIVILEGES ON *.* TO 'admin'@'localhost' IDENTIFIED BY '123';
GRANT ALL PRIVILEGES ON *.* TO 'admin'@'127.0.0.1' IDENTIFIED BY '123';


PS:

php在编译的时候要支持上mysql,如果是php和mysql分离开来,最好yum装上php-mysql和mysql-devel包 然后再编译带上with-mysql

varnish在实现方向代理负载均衡的时候要定义为组的结构,还要定义出动作的触发条件。

memcached 的缓存对象要设置合理,不然反而会减慢效率。

nginx在优化时要结合机器的硬件,切勿网上直接copy。

另外附加一份优化的文档,还望对各位有帮助:

 
  1. (1)Nginx的优化
  2. 一般来说nginx配置文件中对优化比较有作用的为以下几项:
  3. worker_processes8;
  4. nginx进程数,建议按照cpu数目来指定,一般为它的倍数。
  5. worker_cpu_affinity0000000100000010000001000000100000010000001000000100000010000000;
  6. 为每个进程分配cpu,上例中将8个进程分配到8个cpu,当然可以写多个,或者将一个进程分配到多个cpu。
  7. worker_rlimit_nofile102400;
  8. 这个指令是指当一个nginx进程打开的最多文件描述符数目,理论值应该是最多打开文件数(ulimit-n)与nginx进程数相除,但是nginx分配请求并不是那么均匀,所以最好与ulimit-n的值保持一致。
  9. useepoll;
  10. 使用epoll的I/O模型,这个不用说了吧。
  11. worker_connections102400;
  12. 每个进程允许的最多连接数,理论上每台nginx服务器的最大连接数为worker_processes*worker_connections。
  13. keepalive_timeout60;
  14. keepalive超时时间。
  15. client_header_buffer_size4k;
  16. 客户端请求头部的缓冲区大小,这个可以根据你的系统分页大小来设置,一般一个请求头的大小不会超过1k,不过由于一般系统分页都要大于1k,所以这里设置为分页大小。分页大小可以用命令getconfPAGESIZE取得。
  17. open_file_cachemax=102400inactive=20s;
  18. 这个将为打开文件指定缓存,默认是没有启用的,max指定缓存数量,建议和打开文件数一致,inactive是指经过多长时间文件没被请求后删除缓存。
  19. open_file_cache_valid30s;
  20. 这个是指多长时间检查一次缓存的有效信息。
  21. open_file_cache_min_uses1;
  22. open_file_cache指令中的inactive参数时间内文件的最少使用次数,如果超过这个数字,文件描述符一直是在缓存中打开的,如上例,如果有一个文件在inactive时间内一次没被使用,它将被移除。
  23. (2)关于内核参数的优化:请修改文件/etc/sysctl.conf
  24. net.ipv4.tcp_max_tw_buckets=6000
  25. timewait的数量,默认是180000。
  26. net.ipv4.ip_local_port_range=102465000
  27. 允许系统打开的端口范围。
  28. net.ipv4.tcp_tw_recycle=1
  29. 启用timewait快速回收。
  30. net.ipv4.tcp_tw_reuse=1
  31. 开启重用。允许将TIME-WAITsockets重新用于新的TCP连接。
  32. net.ipv4.tcp_syncookies=1
  33. 开启SYNCookies,当出现SYN等待队列溢出时,启用cookies来处理。
  34. net.core.somaxconn=262144
  35. web应用中listen函数的backlog默认会给我们内核参数的net.core.somaxconn限制到128,而nginx定义的NGX_LISTEN_BACKLOG默认为511,所以有必要调整这个值。
  36. net.core.netdev_max_backlog=262144
  37. 每个网络接口接收数据包的速率比内核处理这些包的速率快时,允许送到队列的数据包的最大数目。
  38. net.ipv4.tcp_max_orphans=262144
  39. 系统中最多有多少个TCP套接字不被关联到任何一个用户文件句柄上。如果超过这个数字,孤儿连接将即刻被复位并打印出警告信息。这个限制仅仅是为了防止简单的DoS攻击,不能过分依靠它或者人为地减小这个值,更应该增加这个值(如果增加了内存之后)。
  40. net.ipv4.tcp_max_syn_backlog=262144
  41. 记录的那些尚未收到客户端确认信息的连接请求的最大值。对于有128M内存的系统而言,缺省值是1024,小内存的系统则是128。
  42. net.ipv4.tcp_timestamps=0
  43. 时间戳可以避免序列号的卷绕。一个1Gbps的链路肯定会遇到以前用过的序列号。时间戳能够让内核接受这种“异常”的数据包。这里需要将其关掉。
  44. net.ipv4.tcp_synack_retries=1
  45. 为了打开对端的连接,内核需要发送一个SYN并附带一个回应前面一个SYN的ACK。也就是所谓三次握手中的第二次握手。这个设置决定了内核放弃连接之前发送SYN+ACK包的数量。
  46. net.ipv4.tcp_syn_retries=1
  47. 在内核放弃建立连接之前发送SYN包的数量。
  48. net.ipv4.tcp_fin_timeout=1
  49. 如果套接字由本端要求关闭,这个参数决定了它保持在FIN-WAIT-2状态的时间。对端可以出错并永远不关闭连接,甚至意外当机。缺省值是60秒。2.2内核的通常值是180秒,你可以按这个设置,但要记住的是,即使你的机器是一个轻载的WEB服务器,也有因为大量的死套接字而内存溢出的风险,FIN-WAIT-2的危险性比FIN-WAIT-1要小,因为它最多只能吃掉1.5K内存,但是它们的生存期长些。
  50. net.ipv4.tcp_keepalive_time=30
  51. 当keepalive起用的时候,TCP发送keepalive消息的频度。缺省是2小时。
  52. (3)关于FastCGI的几个指令:
  53. fastcgi_cache_path/usr/local/nginx/fastcgi_cachelevels=1:2keys_zone=TEST:10minactive=5m;
  54. 这个指令为FastCGI缓存指定一个路径,目录结构等级,关键字区域存储时间和非活动删除时间。
  55. fastcgi_connect_timeout300;
  56. 指定连接到后端FastCGI的超时时间。
  57. fastcgi_send_timeout300;
  58. 向FastCGI传送请求的超时时间,这个值是指已经完成两次握手后向FastCGI传送请求的超时时间。
  59. fastcgi_read_timeout300;
  60. 接收FastCGI应答的超时时间,这个值是指已经完成两次握手后接收FastCGI应答的超时时间。
  61. fastcgi_buffer_size4k;
  62. 指定读取FastCGI应答第一部分需要用多大的缓冲区,一般第一部分应答不会超过1k,由于页面大小为4k,所以这里设置为4k。
  63. fastcgi_buffers84k;
  64. 指定本地需要用多少和多大的缓冲区来缓冲FastCGI的应答。
  65. fastcgi_busy_buffers_size8k;
  66. 这个指令我也不知道是做什么用,只知道默认值是fastcgi_buffers的两倍。
  67. fastcgi_temp_file_write_size8k;
  68. 在写入fastcgi_temp_path时将用多大的数据块,默认值是fastcgi_buffers的两倍。
  69. fastcgi_cacheTEST
  70. 开启FastCGI缓存并且为其制定一个名称。个人感觉开启缓存非常有用,可以有效降低CPU负载,并且防止502错误。
  71. fastcgi_cache_valid2003021h;
  72. fastcgi_cache_valid3011d;
  73. fastcgi_cache_validany1m;
  74. 为指定的应答代码指定缓存时间,如上例中将200,302应答缓存一小时,301应答缓存1天,其他为1分钟。
  75. fastcgi_cache_min_uses1;
  76. 缓存在fastcgi_cache_path指令inactive参数值时间内的最少使用次数,如上例,如果在5分钟内某文件1次也没有被使用,那么这个文件将被移除。
  77. fastcgi_cache_use_staleerrortimeoutinvalid_headerhttp_500;
  78. 不知道这个参数的作用,猜想应该是让nginx知道哪些类型的缓存是没用的。
【责任编辑: 杨赛TEL:(010)68476606】

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值