Nginx:影响高并发性能优化的主要参数配置(含Nginx运维标准文件)

Nginx 是一个高性能的HTTP和反向代理web服务器,在连接高并发的情况下,Nginx是Apache服务不错的替代品。

日常的运维工作中,我们经常会用到nginx服务,也时常会碰到nginx因高并发导致的性能瓶颈问题。

今天,我来简单总结、梳理下配置文件中影响 Nginx 高并发性能的一些主要参数:

1. worker_processes  6;

nginx 进程数:建议设置为等于CPU总核心数(一般跟CPU核数相同或为它的倍数)。这里设置为多少,在进行top监控的时候就能看到高负载时就会打开多少个nginx进程。可通过 lscpu 命令查看服务器里有几个核(先看几个CPU,以及每个CPU是几核)。

2. worker_connections  65535;

单个进程最大连接数:默认的值是1024,理论上每台nginx服务器的最大连接数 = worker_processes(最大进程个数) * worker_connections(单个进程最大连接数)。

这个值太小的后果就是你的系统会报:too many open files 等错误,导致你的系统死掉。一般给到服务器后最好通过 ulimit 命令结合修改 /etc/security/limits.conf(增加* soft  nofile = * hard  nofile=)两个配置值,将其设置的更大些。

3. keepalive_timeout 120;

http连接超时时间:单位是秒,默认为60s,功能是使客户端到服务器端的连接在设定的时间(即:keepalive_timeout )内持续有效,当出现对服务器的后继请求时,该功能避免了建立或者重新建立连接。切记 -- 这个参数不能设置过大!否则会导致许多无效的http连接占据着nginx的连接数,最终造成 nginx 服务崩溃!

4. worker_rlimit_nofile 65535;

每个 nginx 进程打开文件描述符最大数目:这个指令是指一个 nginx 进程打开的最多文件描述符数目,理论值应该是系统的最多打开文件数(ulimit -n)与nginx进程数相除,但是nginx分配请求并不是那么均匀,所以该配置要和系统的单进程打开文件数一致。

5. gzip  on;

通过测试一个5000多bytes的json数据在经过压缩只后只有700多bytes,压缩效率可达7倍。有效降低带宽的使用,加快响应速度。

6. tcp_nopush on;

防止网络阻塞:告诉nginx在一个数据包里发送所有头文件,而不一个接一个的发送。就是说数据包不会马上传送出去,等到数据包最大时,一次性的传输出去,这样有助于解决网络堵塞。

7. tcp_nodelay on;

防止网络阻塞:告诉nginx不要缓存数据,而是一段一段的发送--当需要及时发送数据时,就应该给应用设置这个属性,这样发送一小块数据信息时就不能立即得到返回值。

注意:tcp_nopush on 和 tcp_nodelay on:这两个指令也许是最难理解的nginx配置,他们对于nginx的影响在网络的较低层.。可以简单的认为这些指令决定了操作系统如何处理网络缓存和他们何时将这些缓存输出到最终用户(客户端).。建议如果之前不了解这些概念你最好不要动它.,他们不会显著的改善或者改变性能,,所以最好使用他们的默认值。

8. client_header_buffer_size 4k;

客户端请求头部的缓冲区大小,这个可以根据你的系统分页大小来设置,一般一个请求的头部大小不会超过1k,不过由于一般系统分页都要大于1k,所以这里设置为分页大小。分页大小可以用命令getconf PAGESIZE取得。

9. use epoll;

在events标签中使用epoll的I/O模型,用这个模型用来高效处理异步事件。

10. server_tokens off;

隐藏响应头中的有关操作系统和web server(Nginx)版本号的信息,这样对于安全性是有好处的。

11. open_file_cache max=102400 inactive=20s;

这个参数将为打开文件指定缓存,默认是没有启用的,max指定缓存数量,建议和打开文件数一致,inactive是指经过多长时间文件没被请求后删除缓存。

12. open_file_cache_valid 30s;

指多长时间检查一次缓存的有效信息。

下面试一个运维常用的nginx标准配置文件(只供参照):

[root@dev-huanqiu ~]# cat /usr/local/nginx/conf/nginx.conf
user   www www;
worker_processes 6;
worker_cpu_affinity 00000001 00000010 00000100 00001000 00010000 00100000 01000000;
error_log   /www/log/nginx_error.log   crit;
pid         /usr/local/nginx/nginx.pid;
worker_rlimit_nofile 65535;
 
events
{
   use epoll;
   worker_connections 65535;
}
 
http
{
   include       mime.types;
   default_type   application/octet-stream;
 
   charset   utf-8;
 
   server_names_hash_bucket_size 128;
   client_header_buffer_size 2k;
   large_client_header_buffers 4 4k;
   client_max_body_size 8m;
 
   sendfile on;
   tcp_nopush     on;
 
   keepalive_timeout 60;
 
   fastcgi_cache_path /usr/local/nginx/fastcgi_cache levels=1:2
                 keys_zone=TEST:10m
                 inactive=5m;
   fastcgi_connect_timeout 300;
   fastcgi_send_timeout 300;
   fastcgi_read_timeout 300;
   fastcgi_buffer_size 16k;
   fastcgi_buffers 16 16k;
   fastcgi_busy_buffers_size 16k;
   fastcgi_temp_file_write_size 16k;
   fastcgi_cache TEST;
   fastcgi_cache_valid 200 302 1h;
   fastcgi_cache_valid 301 1d;
   fastcgi_cache_valid any 1m;
   fastcgi_cache_min_uses 1;
   fastcgi_cache_use_stale error timeout invalid_header http_500; 
   open_file_cache max=204800 inactive=20s;
   open_file_cache_min_uses 1;
   open_file_cache_valid 30s; 
 
   tcp_nodelay on;
   
   gzip on;
   gzip_min_length   1k;
   gzip_buffers     4 16k;
   gzip_http_version 1.0;
   gzip_comp_level 2;
   gzip_types       text/plain application/x-javascript text/css application/xml;
   gzip_vary on;
 
   server
   {
     listen       8080;
     server_name   csdn.tianxiaowen.com;
     index index.php index.htm;
     root   /www/html/;
 
     location /status
     {
         stub_status on;
     }
 
     location ~ .*\.(php|php5)?$
     {
         fastcgi_pass 127.0.0.1:9000;
         fastcgi_index index.php;
         include fcgi.conf;
     }
 
     location ~ .*\.(gif|jpg|jpeg|png|bmp|swf|js|css)$
     {
       expires       30d;
     }
 
     log_format   access   '$remote_addr - $remote_user [$time_local] "$request" '
               '$status $body_bytes_sent "$http_referer" '
               '"$http_user_agent" $http_x_forwarded_for';
     access_log   /www/log/access.log   access;
   }
 
}

13、worker_connections 的配置

#进程数,建议设置和CPU个数一样或2倍
worker_processes  2;

#日志级别
error_log  logs/error.log  warning;(默认error级别)

# nginx 启动后的pid 存放位置
#pid        logs/nginx.pid;

events {
    #配置每个进程的连接数,总的连接数= worker_processes * worker_connections
    #默认1024
    worker_connections  10240;

}

http {
    include       mime.types;
    default_type  application/octet-stream;
    sendfile        on;

#连接超时时间,单位秒
keepalive_timeout  65;

    server {
        listen       80;
        server_name  localhost                 
        #默认请求
          location / {
                     root  html;   #定义服务器的默认网站根目录位置
                     index  index.php index.html index.htm;  #定义首页索引文件的名称
        }
        #定义错误提示页面
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
}
14、参数的解释

worker_processes与worker_connections 设置好合适大小,可以提示nginx处理性能,非常重要。

原作者的话:
As a general rule you need the only worker with large number of worker_connections, say 10,000 or 20,000.
However, if nginx does CPU-intensive work as SSL or gzipping and you have 2 or more CPU, then you may 
set worker_processes to be equal to CPU number.
Besides, if you serve many static files and the total size of the files is bigger than memory, then you may 
increase worker_processes to utilize a full disk bandwidth.
Igor Sysoev

翻译:
一般一个进程足够了,你可以把连接数设得很大。(worker_processes: 1,worker_connections: 10,000)
如果有SSL、gzip这些比较消耗CPU的工作,而且是多核CPU的话,可以设为和CPU的数量一样。(worker_processes: CPU核心数)
或者要处理很多很多的小文件,而且文件总大小比内存大很多的时候,也可以把进程数增加,以充分利用IO带宽(主要似乎是IO操作有block)

WORKER_PROCESSES,工作进程数

  • 1.默认:worker_processes: 1
  • 2.调大:worker_processes: CPU核心数,(双核4线程,可以设置为4)

WORKER_CONNECTIONS,单个工作进程可以允许同时建立外部连接的数量

数字越大,能同时处理的连接越多

  • 1.默认:worker_connections: 1024
  • 2.调大:worker_connections: 100000,(调大到10万连接)

WORKER_CONNECTIONS解析

  • 1.connections不是随便设置的,而是与两个指标有重要关联,一是内存,二是操作系统级别的“进程最大可打开文件数”。
  • 2.内存:每个连接数分别对应一个read_event、一个write_event事件,一个连接数大概占用232字节,2个事件总占用96字节,那么一个连接总共占用328字节,通过数学公式可以算出100000个连接数大概会占用 31M = 100000 * 328 / 1024 / 1024,当然这只是nginx启动时,connections连接数所占用的nginx。
  • 3.进程最大可打开文件数:进程最大可打开文件数受限于操作系统,可通过 ulimit -n 命令查询,以前是1024,现在是65535,
    nginx提供了worker_rlimit_nofile指令,这是除了ulimit的一种设置可用的描述符的方式。 该指令与使用ulimit对用户的设置是同样的效果。此指令的值将覆盖ulimit的值,如:worker_rlimit_nofile 20960;
worker_processes 2; 
worker_rlimit_nofile 65535;
#pid logs/nginx.pid; 
events { 
   worker_connections 65535; 
}

通过 ps -elf | grep nginx 找到 nginx 的worker进程ID
通过 cat /proc/31613/limits 查看,其中2291是worker进程ID,请注意其中的Max open files

在这里插入图片描述

从上面的分析可以看出nginx占用内存小,处理性能高,通过提高服务器的配置,Nginx可以应对更大的连接数

 

  • 0
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值