Nginx
文章目录
1.Nginx的安装与启动
1.1什么是Nginx
Nginx是一款高性能的http服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器。由俄罗斯的程序设计师伊戈尔·西索夫所开发,官方测试nginx能够支撑5万并发链接,并且CPU、内存等资源消耗却非常低,运行非常稳定。
Nginx应用场景:
- http服务器。nignx是一个http服务可以独立提供http服务。可以做网页静态服务器。
- 虚拟主机。可以实现在一台服务器虚拟出多个网站,例如个人网站使用的虚拟主机。
- 反向代理,负载均衡。当网站的访问量达到一定程度后,单台服务器不能满足用户的请求时,需要用多台服务器集群可以使用nginx做反向代理。并且多台服务器·可以平均分担负载,不会因为某台服务器负载高宕机而某台服务器闲置的情况。
1.2安装Nginx(docker安装)
1.搜索nginx镜像
docker search nginx
2.拉取nginx镜像
docker pull nginx
3.创建容器,设置端口映射、目录映射
# 在/root⽬录下创建nginx⽬录⽤于存储nginx数据信息
mkdir ~/nginx
cd ~/nginx
mkdir conf
cd conf
# 在~/nginx/conf/下创建nginx.conf⽂件,粘贴下⾯内容
vim nginx.conf
添加配置
user nginx;
worker_processes 1;
error_log /var/log/nginx/error.log warn;
pid /var/run/nginx.pid;
events {
worker_connections 1024;
}
http {
include /etc/nginx/mime.types;
default_type application/octet-stream;
log_format main '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"';
access_log /var/log/nginx/access.log main;
sendfile on;
#tcp_nopush on;
keepalive_timeout 65;
#gzip on;
include /etc/nginx/conf.d/*.conf;
}
4.添加服务器配置~/nginx/conf.d/80.conf(名字自定义)
server {
listen 80; # 监听的端⼝
server_name localhost; # 域名或ip
location / { # 访问路径配置
root /usr/share/nginx/html;# 根⽬录
index index.html index.htm; # 默认⾸⻚
}
error_page 500 502 503 504 /50x.html; # 错误⻚⾯
location = /50x.html {
root html;
}
}
5.创建容器
docker run -id --name=c_nginx \
-p 80:80 \
-p 81:81 \
-p 82:82 \
-v $PWD/conf/nginx.conf:/etc/nginx/nginx.conf \
-v $PWD/conf.d:/etc/nginx/conf.d \
-v $PWD/logs:/var/log/nginx \
-v $PWD/html:/usr/share/nginx/html \
nginx
参数说明:
- -p 80:80 : 将容器80端口映射到宿主机的80端口
- -v $PWD/conf/nginx.conf:/etc/nginx/nginx.conf: 将主机当前目录下的/conf/nginx.conf 挂载到容器的:/etc/nginx/nginx.conf。配置目录
- -v $PWD/conf.d:/etc/nginx/conf.d :挂载服务器目录
- -v $PWD/logs:/var/log/nginx :挂载日志目录
- -v $PWD/html:/usr/share/nginx/html :挂载静态页面资源
4.使用外部服务器访问nginx
2.Nginx静态网站部署
2.1静态网站的部署
将/资料/静态页面/index目录下的所有内容上传到服务器/usr/local/nginx/html下即可访问(一般不使用)
2.2配置虚拟主机
虚拟主机,也叫“网站空间”,就是把一台运行在互联网的物理服务器划分成多个“虚拟”服务器。虚拟主机技术极大的促进了网络技术的应用和普及。同时虚拟主机的租用服务也成了网络时代的一种新型经济形式。
2.2.1端口绑定
1.上传静态网站:
将/资料/静态页面/index目录上传至/usr/local/nginx/index下
将/资料/静态页面/regist目录上传至/usr/local/nginx/regist下
2.添加Nginx配置文件:~/nginx/config.d/port.conf
server {
listen 81; # 监听的端⼝
server_name localhost; # 域名或ip
location / { # 访问路径配置
root /usr/share/nginx/index;# 根⽬录
index index.html index.htm; # 默认⾸⻚
}
error_page 500 502 503 504 /50x.html; # 错误⻚⾯
location = /50x.html {
root html;
}
}
server {
listen 82; # 监听的端⼝
server_name localhost; # 域名或ip
location / { # 访问路径配置
root /usr/share/nginx/regist;# 根⽬录
index regist.html; # 默认⾸⻚
}
error_page 500 502 503 504 /50x.html; # 错误⻚⾯
location = /50x.html {
root html;
}
}
3.访问测试:
地址栏输⼊http://192.168.232.129/:81 可以看到⾸⻚⾯
地址栏输⼊http://192.168.232.129/:82 可以看到注册⻚⾯
2.2.2 域名绑定
什么是域名:
域名,是由一串用点分隔的字符组成的Internet上某一台计算机或计算机组的名称,用于在数据传输时表示计算机的电子方位(有时也指地理位置,地理上的域名,指代有行政自主权的一个地方区域)。域名是一个IP地址上有“面具”。域名的目的时便于记忆和沟通的一组服务器的地址(网站,电子邮件,FTP等)。域名作为力所能及难忘的互联网参与者的名称。域名按域名系统(DNS)的规则流程组成。在DNS中注册任何名称都时域名。域名用于各种网络环境和应用程序特定的命名和寻址目的。通常,域名表示互联网协议(IP)资源,例如用于访问因特网的个人计算机,托管网站的服务器计算机。或网站本身或通过因特网传送的任何其他服务。
域名级别:
1.顶级域名
顶级域名又分为两类:
一是国家顶级域名,200多个国家都按照国家代码分配了顶级域名,例如中国是cn,美国是us,日本是jp等
二是国际顶级域名,例如表示工商企业的com,top,网络供应商的.net,表示非盈利组织的org,表示教育的edu,以及没有限制的中性域名xyz
2.二级域名
⼆级域名是指顶级域名之下的域名,在国际顶级域名下,它是指域名注册⼈的⽹上名称,例如 ibm,yahoo,microsoft等;在国家顶级域名下,它是表示注册企业类别的符号,例如.top,com,edu,gov,net等。
中国在国际互联⽹络信息中⼼(Inter NIC) 正式注册并运⾏的顶级域名是CN,这也是中国的⼀级域名。在顶级域名之下,中国的⼆级域名⼜分为类别域名和⾏政区域名两类。类别域名共7个, 包括⽤于科研机构的ac;⽤于⼯商⾦融企业的com、top;⽤于教育机构的edu;⽤于政府部⻔的 gov;⽤于互联⽹络信息中⼼和运⾏中⼼的net;⽤于⾮盈利组织的org。⽽⾏政区域名有34个,分别对应于中国各省、⾃治区和直辖市。
例如:map.baidu.com
3.三级域名
三级域名⽤字⺟( A~Z,a~z,⼤⼩写等)、数字(0~9)和连接符(-)组成, 各级域名之间⽤实点(.)连接,三级域名的⻓度不能超过20个字符。如⽆特殊原因,建议采⽤申请⼈的英⽂名(或者缩写)或者汉语拼⾳名 (或者缩写) 作为三级域名,以保持域名的清晰性和简洁性。
例如:
item.map.baidu.com
域名与IP绑定:
⼀个域名对应⼀个 ip 地址,⼀个 ip 地址可以被多个域名绑定。
本地测试可以修改 hosts ⽂件(C:\Windows\System32\drivers\etc)
可以配置域名和 ip 的映射关系,如果 hosts ⽂件中配置了域名和 ip 的对应关系,不需要⾛dns 服务
器。
使用SwitchHosts工具绑定IP和域名
192.168.232.129 www.zyf.com
192.168.232.129 test.zyf.com
做好域名指向后,修改nginx配置文件domain.conf
server {
listen 80;
server_name www.zyf.com;
location / {
root /usr/share/nginx/cart;
index cart.html;
}
}
server {
listen 80;
server_name test.zyf.com;
location / {
root /usr/share/nginx/search;
index search.html;
}
}
3.Nginx反向代理与负载均衡
3.1反向代理
3.1.1 什么是反向代理
反向代理(Reverse Proxy)⽅式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部⽹络上的服务器,并将从服务器上得到的结果返回给internet上请求连接的客户端,此时代理服务器对外就表现为⼀个反向代理服务器。
首先我们理解正向代理:
正向代理是针对客户端,而反向代理是针对服务器,如下图
3.1.2配置反向代理
1.安装tomcat镜像
docker search tomcat
docker pull tomcat #默认下载最新稳定版本
2.创建容器,设置端口映射,目录映射
# 在/root⽬录下创建tomcat⽬录⽤于存储tomcat数据信息
mkdir ~/tomcat
cd ~/tomcat
docker run -id --name=c_tomcat \
-p 8080:8080 \
-v $PWD:/usr/local/tomcat/webapps \
tomcat
3.配置反向代理
~/nginx/config.d/proxy.conf
upstream tomcat-kkb{
server 192.168.232.129:8080;
}
server {
listen 80; # 监听的端⼝
server_name www.kkb.com; # 域名或ip
location / { # 访问路径配置
# root index;# 根⽬录
proxy_pass http://tomcat-kkb;
index index.html index.htm; # 默认⾸⻚
}
}
重新启动Nginx 然后⽤浏览器测试:http://www.kkb.com (此域名须配置域名指向)
3.2负载均衡
3.2.1什么是负载均衡
负载均衡 建⽴在现有⽹络结构之上,它提供了⼀种廉价有效透明的⽅法扩展⽹络设备和服务器的带宽、增加吞吐量、加强⽹络数据处理能⼒、提⾼⽹络的灵活性和可⽤性。
负载均衡,英⽂名称为Load Balance,其意思就是分摊到多个操作单元上进⾏执⾏,例如Web服务器、FTP服务器、企业关键应⽤服务器和其它关键任务服务器等,从⽽共同完成⼯作任务。
3.2.2配置负载均衡-准备工作
1.使用docker创建3个tomcat容器,端口分别为8080,8081,8082
docker run -id --name=c_tomcat \
-p 8080:8080 \
-v $PWD:/usr/local/tomcat/webapps \
tomcat
docker run -id --name=c_tomcat1 \
-p 8081:8080 \
-v $PWD:/usr/local/tomcat/webapps \
tomcat
docker run -id --name=c_tomcat2 \
-p 8082:8080 \
-v $PWD:/usr/local/tomcat/webapps \
tomcat
3.2.3配置负载均衡
修改Nginx配置文件:lb.conf
upstream tomcat-huike {
server 192.168.232.129:8080;
server 192.168.232.129:8081;
server 192.168.232.129:8082;
}
server {
listen 80; # 监听的端⼝
server_name www.huike.com; # 域名或ip
location / { # 访问路径配置
# root index;# 根⽬录
proxy_pass http://tomcat-huike;
index index.html index.htm; # 默认⾸⻚
}
error_page 500 502 503 504 /50x.html; # 错误⻚⾯
location = /50x.html {
root html;
}
}
地址栏输⼊http:// www.hmtravel.com / 刷新观察每个⽹⻚的标题,看是否不同。
经过测试,三台服务器出现的概率各为33.3333333%,交替显示。
如果其中⼀台服务器性能⽐较好,想让其承担更多的压⼒,可以设置权重。
⽐如想让8081端口的tomcat出现次数是其它服务器的2倍,则修改配置如下:
upstream tomcat-travel {
server 192.168.232.129:8080;
server 192.168.232.129:8081 weight=2;
server 192.168.232.129:8082;
}
4.Nginx的Worker+Master模式
启动了Nginx之后,我们会发现有一个Master进程和多个Worker进程在同时工作:
启动Nginx后,其实就是在80端口启动了Socket服务进行监听,如图所示,Nginx涉及Master进程和Worker进程。
其中Master进程用于读取并验证配置文件nginx.conf,管理Worker进程;而Worker进程则用于维护一个线程,处理连接和请求,而这个Worker进程的数量nginx.conf中可以自由配置(修改worker_processes的参数)
值得注意的是,worker_processes的值通常不会大于服务器中的cpu核心数量
换句话说,worker进程的数量通常与服务器的的CPU核心数量有关,因为每个worker进程维护一个独立的线程,我们尽量让每个worker进程都有一个CPU可以使用,避免抢占cpu
同时,为了避免cpu在切换进程时产生性能损耗,我们也可以将worker进程与cpu核心进行"绑定",当worker进程与cpu核心绑定以后,worker进程可以更好的专注的使用某个cpu核心上的缓存,从而减少因为cpu切换不同worker进程而带来的缓存失效,如果想要让worker进程与某个cpu核心绑定,则需要借助另外一个配置指令,它就是"worker_ cpu_ affinity"指令
想要搞明白怎样使用"worker_ cpu_ affinity" 指令,最好先来了解一个概念,这个概念就是"cpu掩码",我们可以通过"cpu掩码"表示某个cpu核心,比如,当前机器上一共有4个cpu核心,那么我们就用4个0表示这4个核,也就是说,我们可以使用如下字符表示这4个核: 0000
那么第一个核就用如下字符表示
0001
第二个核就用如下字符表示
0010
第三个核就用如下字符表示
0100
规律就是,有几个核,就用几个0表示,如果想要使用某个核,就将对应位的0改成1,位从右边开始
比如,如果有8个核,我就可以使用如下字符表示这8个核中的第二个核:
00000010
user nginx;
worker_processes auto;
worker_cpu_affinity 1000 0100 0010 0001;
5.几个实际问题
5.1如何做到热部署?
Nginx本身实现了热部署,在我们修改了nginx.conf后,重新生成了新的Worker进程,当然会以新的配置进行处理请求,而且新的请求必须都交给新的worker进程,至于老的worker进程,等把那些以前的请求处理完毕后,直接Kill掉即可。
5.2Nginx出问题怎么办?
Keepalived+Nginx实现高可用的思路
第一:请求不要直接打到Nginx上,应该先通过Keepalived
第二:Keepalived应该能监控Nginx的生命状态(提供一个用户自定义脚本,定期检查Nginx状态,进行权重变化,从而实现Nginx故障切换)
5.3Nginx如何做到高并发下的高效处理?
上文已经提及Nginx的worker进程个数与CPU绑定、worker进程内部包含一个线程高效回环处理请求,这的确有助于效率,但这是不够的。
作为专业的程序员,我们可以开一下脑洞:BIO/NIO/AIO、异步/同步、阻塞/非阻塞…
要同时处理那么多的请求,要知道,有的请求需要发生IO,可能需要很长时间,如果等着它,就会拖慢worker的处理速度。
Nginx采用了Linux的epoll模型,epoll模型基于事件驱动机制,它可以监控多个事件是否准备完毕,如果OK,那么放入epoll队列中,这个过程是异步的。worker只需要从epoll队列循环处理即可。
一个用户自定义脚本,定期检查Nginx状态,进行权重变化,从而实现Nginx故障切换)
[外链图片转存中…(img-VeD0gzqr-1631618694514)]
5.3Nginx如何做到高并发下的高效处理?
上文已经提及Nginx的worker进程个数与CPU绑定、worker进程内部包含一个线程高效回环处理请求,这的确有助于效率,但这是不够的。
作为专业的程序员,我们可以开一下脑洞:BIO/NIO/AIO、异步/同步、阻塞/非阻塞…
要同时处理那么多的请求,要知道,有的请求需要发生IO,可能需要很长时间,如果等着它,就会拖慢worker的处理速度。
Nginx采用了Linux的epoll模型,epoll模型基于事件驱动机制,它可以监控多个事件是否准备完毕,如果OK,那么放入epoll队列中,这个过程是异步的。worker只需要从epoll队列循环处理即可。