nginx简介
Nginx ("engine x") 是一个高性能的HTTP和 反向代理 服务器,也是一个 IMAP/POP3/SMTP 服务器。 Nginx 是由 Igor Sysoev 为俄罗斯访问量第二的 Rambler.ru 站点开发的,第一个公开版本0.1.0发布于2004年10月4日。其将源代码以类BSD许可证的形式发布,因它的稳定性、丰富的功能集、示例配置文件和低系统资源的消耗而闻名。2011年6月1日,nginx 1.0.4发布。 Nginx是一款轻量级的Web 服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器,并在一个BSD-like 协议下发行。由俄罗斯的程序设计师Igor Sysoev所开发,供俄国大型的入口网站及搜索引擎Rambler(俄文:Рамблер)使用。其特点是占有内存少,并发能力强,事实上nginx的并发能力确实在同类型的网页服务器中表现较好,中国大陆使用nginx网站用户有:淘宝、百度、新浪、网易、腾讯等。
nginx七层load balance结构图
a. 高并发连接: 官方称单节点支持5万并发连接数,实际生产环境能够承受2-3万并发。 b. 内存消耗少: 在3万并发连接下,开启10个nginx进程仅消耗150M内存 (15M*10=150M) c. 配置简单 d. 成本低廉: 开源免费 e. 支持rewrite重写规则: 能够根据域名、url的不同,将http请求分发到后端不同的应用服务器节点上 f. 内置健康检查功能: 如果后端的某台应用节点挂了,请求不会再转发给这个节点,不影响线上功能 g. 节省带宽: 支持gzip压缩 h. 反向代理: 支持分布式部署环境,消除单点故障,支持7 * 24小时不停机发布 nginx原理(Unix I/O模型简介)
以上表格定义参考 《Unix网络编程》 第三版第一卷
I/O涉及的对象: 应用程序进程(简称进程) 操作系统内核(简称内核) I/O经历的过程(以读操作为例): 等待数据准备(简称准备过程) 将数据从内核拷贝到进程(简称拷贝过程) 阻塞:进程在准备过程中阻塞地等待 非阻塞:进程在准备过程中不会阻塞 同步:进程在拷贝过程中需要阻塞等待 异步:进程在拷贝过程中不需要阻塞等待
1. 阻塞I/O 最常见也是默认情况下我们会使用的,进程发起read操作后,进程阻塞等待数据准备就绪,进程阻塞等待内核将数据拷贝到进程中。
所以,blocking IO的特点就是再IO执行的两个阶段都被block了 2. I/O多路复用 所谓的select、epoll,又叫事件驱动I/O。在java中叫nio,进程发起一个或多个socket的read请求后:用select/epoll方法阻塞等待数据就绪,一旦有至少一个就绪,进程阻塞等待内核拷贝数据到进程中。处理单个连接并不比阻塞I/O快。好处在于可以提高并发性,一个线程可同时处理多个连接。
所以,IO多路复用的特点是通过一种机制能够同时等待多个文件描述符,而这些文件描述符(套接字描述符)其中任意一个进入读就绪状态,select()函数就可以返回。
1. 非阻塞I/O 进程发起read操作后 ----进程无需阻塞等待数据准备就绪,若未就绪立即返回err ----进程过一段时间后再次发起read操作,询问是否准备就绪 ----若已经准备就绪,则进程阻塞等待内核将数据拷贝到进程中
所以,nonblocking IO的特点就是用户进程需要不断地主动询问kernel数据准备好了没有 2. 信号驱动I/O 进程发起read操作时,注册信号handler ----进程无需阻塞等待数据准备就绪 ----数据就绪后内核通过信号通知进程,并调用进程注册的信号handler ----进程阻塞等待数据拷贝
进程发起read操作,将socket和接收数据的buffer传递给内核后: ----无需阻塞等待数据准备就绪 ----数据就绪后也无需阻塞等待内核拷贝数据 ----内核拷贝数据完成后发送信号通知进程数据已经可用 nginx 如何保证强大的并发能力 nginx使用epoll(linux2.6内核)和kqueue(freebsd)网络模型,而apache使用传统的select模型 epoll 与 select都是 I/O 多路复用 epoll是当前在Linux下开发大规模并发网络程序的热门选择
select模型的缺点 a. 最大并发数限制,因为一个进程所打开的FD(文件描述符)是有限制的,由FD_SETSIZE设置,默认值是1024/2048,因此Select模型的最大并发数就被相应限制了。自己改改这个FD_SETSIZE?想法虽好,可是先看看下面吧… b. 效率问题,select每次调用都会线性扫描全部的FD集合,这样效率就会呈现线性下降,把FD_SETSIZE改大的后果就是,大家都慢慢来,什么?都超时了??!! c. 内核/用户空间 内存拷贝问题,如何让内核把FD消息通知给用户空间呢?在这个问题上select采取了内存拷贝方法。 从上面看,select和epoll都需要在返回后,通过遍历文件描述符来获取就绪的socket。事实上,同时连接的大量客户端在同一时刻只有很少处于就绪状态,因此随着监视的文件数量增长,其效率也会呈现线性下降。 epoll 模型的优点 a. 相对于select和poll来说,epoll更加灵活,没有描述符限制(它所支持的FD上限是最大可以打开文件的数目,这个数字一般远大于2048,举个例子,在1GB内存的机器上大约是10万左 右,具体数目可以cat /proc/sys/fs/file-max察看)。epoll使用一个文件描述符管理多个描述符,将用户关系的文件描述符的事件存放到内核的一个事件表中,这样在用户空间和内核空间的copy只需一次。 b. IO的效率不会随着监视fd的数量的增长而下降。epoll不同于select和poll轮询的方式,而是通过每个fd定义的回调函数来实现的。只有就绪的fd才会执行回调函数。 c. 内存拷贝,Epoll在这点上使用了“共享内存”,这个内存拷贝也省略了。 Epoll不仅会告诉应用程序有I/O事件到来,还会告诉应用程序相关的信息,根据这些信息应用程序就能直接定位到事件,而不必遍历整个FD集合 nginx配置实例 nginx配置文件见 $NGINX_HOME/conf/nginx.conf文件
user nobody nobody;
server {
server { 以上就是nginx的基本原理介绍和入门例程 |
nginx简明入门教程
最新推荐文章于 2024-10-04 23:06:12 发布