Nginx code 状态码说明

https://www.cnblogs.com/kerwing/p/9072268.html

最近了解下Nginx的Code状态码,在此简单总结下。

nginx的ngx_http_proxy_module模块的指令着实是太多了,其实平时工作中经常用到的指令也就是那几个,但是如果不细看下文档的话,下次对一些配置的使用还是会比较棘手的。所以还是花点时间,对文档全盘扫描下吧。
此处因为指令太多,我就按照其用途大概归类整理了下。也方便自己日后查看。。。

代理时用到的指令集

代理请求就是将请求先发送到指定的代理服务器,获取响应,然后将其发送回客户端。当然请求可能被代理到http服务器(proxy_pass)也可能不是http服务器。(nginx 支持的协议包括 FastCGIuwsgiSCGI, 和 memcached.它们对应的指令分别是fastcgi_passuwsgi_passscgi_passmemcached_pass; 这几个指令都不属于今天要说的proxy模块。在此就不作说明了。而且我也没用过。。。)

先来再回顾一下一个http请求处理流程:

一个普通的http请求处理流程,如上图所示: A -> client端发起请求给nginx B -> nginx处理后,将请求转发到uwsgi,并等待结果 C -> uwsgi(FastCGIuwsgiSCGI, memcached以及http)处理完请求后,返回数据给nginx D -> nginx将处理结果返回给客户端 每个阶段都会有一个预设的超时时间,由于网络、机器负载、代码异常等等各种原因,如果某个阶段没有在预期的时间内正常返回,就会导致这次请求异常,进而产生不同的状态码。

1)504

504主要是针对B、C阶段。一般nginx配置中会有:

ocation / {
    ...
    uwsgi_connect_timeout 6s;
    uwsgi_send_timeout 6s;
    uwsgi_read_timeout 10s;
    uwsgi_buffering on;
    uwsgi_buffers 80 16k;
    ...
}

这个代表nginx与上游服务器(uwsgi)通信的超时时间,也就是说,如果在这个时间内,uwsgi没有响应,则认为这次请求超时,返回504状态码。

具体的日志如下:

access_log[16/May/2016:22:11:38 +0800] 10.4.31.56 201605162211280100040310561523 15231401463407888908 10.*.*.* 127.0.0.1:8500 "GET /api/media_article_list/?count=10&source_type=0&status=all&from_time=0&item_id=0&flag=2&_=1463407896337 HTTP/1.1" 504 **.***.com **.**.**.39, **.**.**.60 10.000 10.000 "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/46.0.2490.71 Safari/537.36" ...error_log2016/05/16 22:11:38 [error] 90674#0: *947302032 upstream timed out (110: Connection timed out) while reading response header from upstream, client: 10.6.19.81, server: **.***.com, request: "GET /api/media_article_list/?count=10&source_type=0&status=all&from_time=0&item_id=0&flag=2&_=1463407896337 HTTP/1.1", upstream: "http://127.0.0.1:8500/**/**/api/media_article_list/?count=10&source_type=0&status=all&from_time=0&item_id=0&flag=2&_=1463407896337", host: "mp.toutiao.com", referrer: "https://**.***.com/articles/?source_type=0"error_log中upstream timed out (110: Connection timed out) while reading response header from upstream,
意思是说,在规定的时间内,没有从header中拿到数据,即uwsgi没有返回任何数据。

2)502

502主要针对B 、C阶段。产生502的时候,对应的error_log中的内容会有好几种:

access_log

[16/May/2016:16:39:49 +0800] 10.4.31.56 201605161639490100040310562612 2612221463387989972 10.6.19.81 127.0.0.1:88 "GET /articles/?source_type=0 HTTP/1.1" 503 **.***.com **.**.**.4, **.**.**.160 0.000 0.000 "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.101 Safari/537.36" "uuid=\x22w:546d345b86ca443eb44bd9bb1120e821\x22; tt_webid=15660522398; lasttag=news_culture; sessionid=f172028cc8310ba7f503adb5957eb3ea; sid_tt=f172028cc8310ba7f503adb5957eb3ea; _ga=GA1.2.354066248.1463056713; _gat=1"

error_log

2016/05/16 16:39:49 [error] 90693#0: *944980723 recv() failed (104: Connection reset by peer) while reading response header from upstream, client: 10.6.19.80, server: **.***.com, request: "GET /articles/ HTTP/1.1", upstream: "http://127.0.0.1:8500/**/**/articles/", host: "**.***.com", referrer: "http://**.***.com/new_article/"

列一下常见的几种502对应的 error_log:

  • recv() failed (104: Connection reset by peer) while reading response header from upstream

  • upstream prematurely closed connection while reading response header from upstream

  • connect() failed (111: Connection refused) while connecting to upstream

  • ....

这些都代表,在nginx设置的超时时间内,上游uwsgi没有给正确的响应(但是是有响应的,不然如果一直没响应,就会变成504超时了),因此nginx这边的状态码为502。

如上,access_log中出现503,为什么?

这个是因为nginx upstream的容灾机制。如果nginx有如下配置:

upstream app_backup {
    server 127.0.0.1:8500 max_fails=3 fail_timeout=5s;
    server 127.0.0.1:88 backup;
}
  • max_fails=3 说明尝试3次后,会认为“ server 127.0.0.1:8500” 失效,于是进入 “server 127.0.0.1:88 backup”,即访问本机的88端口;

nginx upstream的容灾机制,默认情况下,Nginx 默认判断失败节点状态以connect refuse和time out状态为准,不过location里加了这个配置:

proxy_next_upstream error http_502;
proxy_connect_timeout 1s; 
proxy_send_timeout    6s; 
proxy_read_timeout    10s;
proxy_set_header Host $host;

 

===================

 

  • 这个配置是说,对于http状态是502的情况,也会走upstream的容灾机制;

  • 概括一下就是,如果连续有3次(max_fails=3)状态为502的请求,则会任务这个后端server 127.0.0.1:8500 挂掉了,在接下来的5s(fail_timeout=5s)内,就会访问backup,即server 127.0.0.1:88 ,看下88端口对应的是什么:

  • server {                                                                                                                                                
     listen 88;   
     access_log /var/log/nginx/failover.log;    
     expires 1m;    
     error_page  500 502 503 504 /500.html;    
     location / {       
         return 503;     
     }    
     location = /500.html {       
         root /**/**/**/nginx/5xx/;    
     }
    }

    这个的意思就是,对于访问88端口的请求,nginx会返回503状态码,同时返回/opt/tiger/ss_conf/nginx/5xx/这个路径下的500.html文件。 因此,access_log中看到的是503

    3)499

    client发送请求后,如果在规定的时间内(假设超时时间为500ms)没有拿到nginx给的响应,则认为这次请求超时,会主动结束,这个时候nginx的access_log就会打印499状态码。 A+B+C+D > 500ms 其实这个时候,server端有可能还在处理请求,只不过client断掉了连接,因此处理结果也无法返回给客户端。 499如果比较多的话,可能会引起服务雪崩。 比如说,client一直在发起请求,客户端因为某些原因处理慢了,没有在规定时间内返回数据,client认为请求失败,中断这次请求,然后再重新发起请求。这样不断的重复,服务端的请求越来越多,机器负载变大,请求处理越来越慢,没有办法响应任何请求

    官网总结nginx返回499的情况,是由于:

    	
    client has closed connection    #客户端主动关闭了连接

    解决的话,可以添加

  • proxy_ignore_client_abort    on;

    还有一种原因,确实是客户端关闭了连接,或者连接超时。主要是因为PHP进程数太少,或php进程占用,资源不能很快释放,请求堆积。这种情况要解决的话,需要在程序上做优化。

    4)500 

    服务器内部错误,也就是服务器遇到意外情况,而无法执行请求。发生错误,一般的几种情况:

  • web脚本错误,如php语法错误,lua语法错误等。

  • 访问量大的时候,由于系统资源限制,而不能打开过多的文件句柄

  • 分析错误的原因

  • 查看nginx,php的错误日志

  •  如果是too many open files,修改nginx的worker_rlimit_nofile参数,使用ulimit查看系统打开文件限制,修改/etc/security/limits.conf

  • 如果脚本存在问题,则需要修复脚本错误,并优化代码

  • 5)503

    503是服务不可用的返回状态。 由于在nginx配置中,设置了limit_req的流量限制,导致许多请求返回503错误代码,在限流的条件下,为提高用户体验,希望返回正常Code 200,且返回操作频繁的信息:

    ................................................Nginx Code Status...............................

  •  
  • 200:服务器成功返回网页
    403:服务器拒绝请求。404:请求的网页不存在
    499:客户端主动断开了连接。500:服务器遇到错误,无法完成请求。502:服务器作为网关或代理,从上游服务器收到无效响应。503 - 服务不可用
    504:服务器作为网关或代理,但是没有及时从上游服务器收到请求。
    这些状态码被分为五大类:
    100-199 用于指定客户端应相应的某些动作。
    200-299 用于表示请求成功。
    300-399 用于已经移动的文件并且常被包含在定位头信息中指定新的地址信息。
    400-499 用于指出客户端的错误。 (自己电脑这边的问题) 自己电脑这边的问题)
    500-599 用于支持服务器错误。 (对方的问题) 对方的问题)---------------------------------------------------------------------------------------------200 (成功) 服务器已成功处理了请求。 通常,这表示服务器提供了请求的网页。
    201 (已创建) 请求成功并且服务器创建了新的资源。
    202 (已接受) 服务器已接受请求,但尚未处理。
    203 (非授权信息) 服务器已成功处理了请求,但返回的信息可能来自另一来源。
    204 (无内容) 服务器成功处理了请求,但没有返回任何内容。
    205 (重置内容) 服务器成功处理了请求,但没有返回任何内容。206 (部分内容) 服务器成功处理了部分 GET 请求。
    ---------------------------------------------------------------------------------------------300 (多种选择) 针对请求,服务器可执行多种操作。 服务器可根据请求者 (user agent) 选择一项操作,或提供操作列表供请求者选择。
    301 (永久移动) 请求的网页已永久移动到新位置。 服务器返回此响应(对 GET 或 HEAD 请求的响应)时,会自动将请求者转到新位置。302 (临时移动) 服务器目前从不同位置的网页响应请求,但请求者应继续使用原有位置来进行以后的请求。303 (查看其他位置) 请求者应当对不同的位置使用单独的 GET 请求来检索响应时,服务器返回此代码。304 (未修改) 自从上次请求后,请求的网页未修改过。 服务器返回此响应时,不会返回网页内容。
    305 (使用代理) 请求者只能使用代理访问请求的网页。 如果服务器返回此响应,还表示请求者应使用代理。
    307 (临时重定向) 服务器目前从不同位置的网页响应请求,但请求者应继续使用原有位置来进行以后的请求。
    ---------------------------------------------------------------------------------------------400 (错误请求) 服务器不理解请求的语法。
    401 (未授权) 请求要求身份验证。 对于需要登录的网页,服务器可能返回此响应。
    403 (禁止) 服务器拒绝请求。404 (未找到) 服务器找不到请求的网页。405 (方法禁用) 禁用请求中指定的方法。
    406 (不接受) 无法使用请求的内容特性响应请求的网页。
    407 (需要代理授权) 此状态代码与 401(未授权)类似,但指定请求者应当授权使用代理。408 (请求超时) 服务器等候请求时发生超时。
    409 (冲突) 服务器在完成请求时发生冲突。 服务器必须在响应中包含有关冲突的信息。
    410 (已删除) 如果请求的资源已永久删除,服务器就会返回此响应。
    411 (需要有效长度) 服务器不接受不含有效内容长度标头字段的请求。
    412 (未满足前提条件) 服务器未满足请求者在请求中设置的其中一个前提条件。
    413 (请求实体过大) 服务器无法处理请求,因为请求实体过大,超出服务器的处理能力。
    414 (请求的 URI 过长) 请求的 URI(通常为网址)过长,服务器无法处理。
    415 (不支持的媒体类型) 请求的格式不受请求页面的支持。
    416 (请求范围不符合要求) 如果页面无法提供请求的范围,则服务器会返回此状态代码。
    417 (未满足期望值) 服务器未满足"期望"请求标头字段的要求。
    ---------------------------------------------------------------------------------------------500 (服务器内部错误) 服务器遇到错误,无法完成请求。
    501 (尚未实施) 服务器不具备完成请求的功能。 例如,服务器无法识别请求方法时可能会返回此代码。
    502 (错误网关) 服务器作为网关或代理,从上游服务器收到无效响应。
    503 (服务不可用) 服务器目前无法使用(由于超载或停机维护)。 通常,这只是暂时状态。
    504 (网关超时) 服务器作为网关或代理,但是没有及时从上游服务器收到请求。
    505 (HTTP 版本不受支持) 服务器不支持请求中所用的 HTTP 协议版本。

    各种优化都做好,还是出现too many open files,那就需要考虑做负载均衡,把流量分散到不同服务器上去

  • proxy_intercept_errors 当上游服务器响应头回来后,可以根据响应状态码的值进行拦截错误处理,与error_page 指令相互结合。用在访问上游服务器出现错误的情况下。

    如下的一个配置实例:

proxy_pass 转发代理请求

首先要发送代理请求给后端代理服务,这就得用到 proxy_pass 指令了,因为这个指令我在之前的一篇文章中已经对其使用中的注意点作出说明,所以这里就不再阐述了。详情请看这里

一些 http 参数的改写

proxy_http_version
proxy_http_version 1.0 | 1.1; 设置代理的HTTP协议版本。默认情况下,使用版本1.0

proxy_method 
指定在转发到代理服务器的请求中使用的HTTP方法,而不是来自客户端请求的方法。参数值可以包含变量

# server context

proxy_buffering off;
proxy_buffer_size 4k;

location / {
    proxy_pass http://example.com;
}

请求头/响应头 处理

默认情况下,nginx 重新定义代理请求HostConnection中的两个头字段,并删除了值为空字符串的头字段。其中请求头Host被设置为了变量$proxy_hostConnection被设定为close

所以为了改变这些设置,我们可以使用如下指令。

1.proxy_set_header 
proxy_set_header field value; 修改或设置请求头的值
请求头的值value可以是变量,文本或者是它们的组合,如果value为空字符串那么这个字段将不会被转发到代理服务器。
如果nginx缓存被启用了的话,从原始请求发过来的如下请求头 If-Modified-SinceIf-Unmodified-SinceIf-None-MatchIf-MatchRangeIf-Range, 是不会被转发到代理服务器的

2.proxy_pass_request_headers 
指定是否将原始的请求头转发给后端服务。如果要忽略掉所有的原始请求头,则可以关闭此值。默认值为on。即不忽略。

3.proxy_ignore_headers 
告知nginx后端服务的响应中的哪些响应头不要去被处理,如下几个响应头可以被忽略:X-Accel-RedirectX-Accel-ExpiresX-Accel-Limit-RateX-Accel-BufferingX-Accel-CharsetExpiresCache-ControlSet-CookieVary

你如果指定这些之外的响应头的是不被允许的。因为只有这些响应头nginx才回去解析并应用它们。

如果后端服务设置了这些响应头,但是你没有忽略它们,则它们可能对nginx有着如下影响
X-Accel-ExpiresExpiresCache-ControlSet-CookieVary 将会影响nginx的缓存机制。
X-Accel-Redirect 执行一个内部跳转到指定的uri
X-Accel-Limit-Rate 将会影响响应到客户端的传输速度
X-Accel-Buffering 启用或者警用响应的缓冲区
X-Accel-Charset 影响 响应的字符集

4.proxy_hide_header
此指令在 nginx 将请求的响应结果给客户端的时候,将后端响应的一些请求头过滤掉
默认nginx不会将响应中的DateServerX-PadX-Accel-...等响应头发送给客户端。而proxy_hide_header指令则是继续设置不需要发送的其他的响应头;当然,对于你想把上面被忽略掉的响应头传递给客户端,你可以使用proxy_pass_header指令指定。

5.proxy_pass_header 
proxy_hide_header指令默认不会把上面列举的那几个header传递给客户端,那么proxy_pass_header则允许其中某个响应头传递给客户端。

6.proxy_headers_hash_bucket_size 和 proxy_headers_hash_max_size(这两个不是太清楚。。。所以就不说了,希望知道的同学告知一下)

    # 如下配置只是学习之用
    upstream backend {
        server 10.5.20.3:3100;
        server 10.5.20.3:3101;
        server 10.5.20.3:3102;
        server 10.5.20.3:3103;
    }
    server {
        listen 8080;
        location / {
            # 忽略掉所有原始请求头
            proxy_pass_request_headers off;
            # 修改host头
            proxy_set_header Host $host;
            # 此处显示server头给客户端 要不客户端显示的是代理服务器的server 
            # Server → openresty/1.9.7.3
            proxy_pass_header Server; 
            proxy_pass http://backend;
        }
    }

请求体 / 响应体 处理

此处参考 http://blog.csdn.net/zstack_org/article/details/53940047

很多用户担心添加服务器会对代理性能造成影响。大部分情况下,Nginx的缓冲(buffer)和缓存(cache)机制能够很好的规避此类性能问题。

代理过程中,有两个连接的速度会影响客户端体验:
(1).从客户端到Nginx的连接
(2).从Nginx到后端的连接

Nginx可以优化连接,不同的优化方案有不同的结果。
没有缓冲的情况下,数据直接从后端服务器发送给客户端。如果客户端的连接速度快,则可以关闭缓冲以提高数据发送速度。缓冲的作用是在Nginx上临时存储来自后端服务器的处理结果,从而可以提早关闭Nginx到后端的连接,这比较适合客户端连接较慢的情况。

Nginx默认启用缓冲,因为客户端的连接速度一般来说是差别很大的。缓冲的具体配置可以通过如下条目修改,这些条目可以放在http ,serverlocation内容块下。需要注意的是,涉及缓冲大小的条目是针对请求配置的,如果设置的比较高,则请求数很多的时候容易造成性能问题:

1.proxy_buffering
控制本内容块下(包括子内容块)是否对后端服务的响应启用缓冲,默认为on

2.proxy_buffers
有两个参数,第一个控制缓冲区请求数量,第二个控制缓冲区大小。默认值为8个、一页(一般是4k或8k)。这个值越大,缓冲的内容越多。

3.proxy_buffer_size
后端回复结果的首段(包含header的部分)是单独缓冲的,本条目定义这部分的缓冲区大小。这个值默认与proxy_buffer的值相同,我们可以把它设置的小一些,因为header内容一般比较少。

4.proxy_busy_buffers_size
设置被标记为“client-ready”(客户端就绪)的缓冲区大小。客户端一次只能从一个缓冲读取数据,而缓冲是按照队列次序被分批发送给客户端的。本条目设置的值就是这个队列的大小。

5.proxy_max_temp_file_size
每个请求可以存储临时文件的最大大小。如果上游发来的结果太大以至于无法放入一个缓冲,则Nginx会为其创建临时文件。

6.proxy_temp_path
定义Nginx存储临时文件的路径。

7.proxy_temp_file_write_size
限制一次性写入临时文件的数据大小。

上面是被代理的服务响应的body处理方式


下面是客户端请求的body的处理方式

8.proxy_request_buffering
控制本内容块下(包括子内容块)是否对客户端的请求体启用缓冲,默认为on。启用的话,nginx会从客户端读取完整个请求体后再将请求发送到后端服务器去。

9.proxy_pass_request_body
指定是否将原始的请求体转发给后端服务。如果要忽略掉所有的原始请求体,则可以关闭此值。默认值为on。即不忽略。

10.proxy_set_body
重新设置这个请求体然后在发送到后端服务器。proxy_set_body value;这个value值可以是纯文本,变量或者是它们的组合形式

如上所述,Nginx提供了不少关于缓冲的配置项。大部分配置项我们都不必太在意,可能就是proxy_buffersproxy_buffer_size值得调整一下。

下面这个示范增加了每个上游请求可用的缓冲,同时缩减了header部分缓冲的大小:

# server context

proxy_buffering on;
proxy_buffer_size 1k;
proxy_buffers 24 4k;
proxy_busy_buffers_size 8k;
proxy_max_temp_file_size 2048m;
proxy_temp_file_write_size 32k;

location / {
    proxy_pass http://example.com;
}

如果你的客户端连接都很快,也可以像下面这样完全关闭缓冲。实际上Nginx还是会在上游比客户端快的时候使用缓冲,只是缓冲的内容会直接刷给客户端而不是放到缓冲池里等待。如果客户端的速度慢,则这样会导致上游连接一直保持。缓冲功能禁用时,只有proxy_buffer_size配置项可用:

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值