nginx
编程小问号
这个作者很懒,什么都没留下…
展开
-
Nginx如何解决“惊群”现象
首先解释下什么是“惊群”现象:如果多个工作进程同时拥有某个监听套接口,那么一旦该套接口出现某客户端请求,此时就将引发所有拥有该套接口的工作进程去争抢这个请求,能争抢到的肯定只有某一个工作进程,而其他工作进程注定要无功而返,这种现象即为“惊群”。 Nginx解决这种“惊群”现象使用的是负载均衡的策略,接下来先结合Nginx的源码详细介绍下Nginx的这种负载均衡策略。 首先是Nginx如转载 2015-07-30 18:08:25 · 449 阅读 · 0 评论 -
nginx源码分析—全局变量ngx_cycle的初始化
作者:阿波 链接:http://blog.csdn.net/livelylittlefish/article/details/7247080 Content 0.序 1. ngx_cycle_t结构 2. ngx_init_cycle()分析 3.注意问题 3.1如何调用CORE模块的callback函数? 3.2 open_files链表中的文件名转载 2015-07-30 18:09:58 · 511 阅读 · 0 评论 -
Nginx学习之十一-Nginx启动框架处理流程
Nginx启动过程流程图 下面首先给出Nginx启动过程的流程图: ngx_cycle_t结构体 Nginx的启动初始化在src/core/nginx.c的main函数中完成,当然main函数是整个Nginx的入口,除了完成启动初始化任务以外,也必定是所有功能模块的入口之处。Nginx的初始化工作主要围绕一个类型为ngx_cycle_t类型的全局变量(转载 2015-07-30 18:15:00 · 646 阅读 · 0 评论 -
nginx源码分析—启动流程
作者:阿波 本文链接:http://blog.csdn.net/livelylittlefish/article/details/7243718 Content 0. 序 1. main()分析 2. 注意问题 2.1 几个初值 2.2 nginx工作模式 2.3 一些配置 2.4 其他开关 3. 小结 0. 序 本文主要分析nginx主程序。转载 2015-07-30 18:12:26 · 531 阅读 · 0 评论 -
Nginx学习之十二-负载均衡-加权轮询策略剖析
本文介绍的是客户端请求在多个后端服务器之间的均衡,注意与客户端请求在多个nginx进程之间的均衡相区别(Nginx根据每个工作进程的当前压力调整它们获取监听套接口的几率,那些当前比较空闲的工作进程有更多机会获取到监听套接口,从而客户端的请求到达后也就相应地被它捕获并处理)。如果Nginx是以反向代理的形式配置运行,那么对请求的实际处理需要转发到后端服务器运行,如果后端服务器有多台,如何选择一台合适转载 2015-07-30 18:14:36 · 505 阅读 · 0 评论 -
nginx的配置、虚拟主机、负载均衡和反向代理
nginx在前面,我写过好几篇,相似的介绍烂它在各个平台上的安装配置以及和php-fpm的连接等。今天,这一篇,着重讲解它的配置,其中包括它比较擅长的负债均衡和反向代理,还有虚拟主机功能。 nginx启动和关闭 按照惯例,先说下各个平台的配置情况: centos平台,源码安装的: /usr/local/nginx/nginx # 启动/usr/local/ngi转载 2016-11-25 21:37:31 · 480 阅读 · 0 评论 -
Nginx实战(五) 反向代理
反向代理(Reverse Proxy)方式是指以代理服务器来接受Internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给Internet上请求连接的客户端,此时代理服务器对外就表现为一个服务器。 什么是反向代理 反向代理(Reverse Proxy)方式是指以代理服务器来接受Internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从转载 2016-11-25 23:14:35 · 402 阅读 · 0 评论 -
Nginx实战(一) 虚拟主机
利用虚拟主机,不同为每个要运行的网站提供一台单独的Nginx服务器或单独运行一组Nginx进程。虚拟主机提供了在同一台服务器、同一组Nginx进程上运行多个网站的功能。 Nginx首先决定一个过来的请求由哪一个server来处理 就是:我们打开HttpWatch看到的那个HOST值。 server { listen 80;转载 2016-11-25 23:08:25 · 418 阅读 · 0 评论 -
centos 7上nginx+uwsgi 性能调优
上一章将nginx +uwsgi搭建起来,将keystone挂载后面。但是发现一个问题,如果http请求达到一定量后,nginx直接返回502。这让需要部署大规模openstack集群的我很是头疼,比较了一下请求的处理能力,keystone 原生的api 接口是可以承受一定量的大规模并发请求的。这就让我思考一个问题,为什么nginx作为web,性能却没有keystone api 自身的承载能力好呢转载 2016-12-28 18:06:45 · 5180 阅读 · 1 评论