使用nginx搭建Spring Boot项目的负载均衡

1、安装nginx

  1. 准备工作
    nginx1.8.1压缩包下载nginx1.8.1版本的地址
    两台机器之间能互相ping通
    sh脚本,内容如下
#/bin/bash
#安装根路径
path=/home/
#Nginx安装包
Nginx='nginx-1.8.0.tar.gz'
###解压后的nginx文件夹名字(压缩包去除所有后缀)
NginxFile='nginx-1.8.0'
###过渡文件夹
file='middle'
echo "开始安装Nginx"
echo "开始安装Nginx相关依赖!"
yum install gcc-c++
yum install -y pcre pcre-devel
yum install -y zlib zlib-devel
yum install -y openssl openssl-devel
yum install -y lrzsz
echo "检查Nginx是否已经开启"
kill -9 `ps -ef |grep nginx |grep -v "grep" |awk '{print $2}'`
echo "检查是否存在Nginx残留并清理---------"
rm -rf $(find / -name "*nginx*")
cd ${path}
mkdir ${file}
cd ${file}
echo "请上传${Nginx}"
rz
while (true)
do
if [ -e ${Nginx} ]; then
 break
else
 echo '传输的压缩包错误!'
 rm -rf *
 echo "请重新传输${Nginx}压缩包"
 rz
fi
done
mv ${Nginx} ${path}
cd ${path}
rm -rf ${file}
tar -zxvf ${Nginx}
cd ${path}${NginxFile}
#######可支持 Https 请求
./configure --user=nobody --group=nobody --prefix=/usr/local/nginx --with-http_stub_status_module --with-http_gzip_static_module --with-http_realip_module --with-http_sub_module --with-http_ssl_module
make && make install
echo "${NginxFile}安装完成!"
echo "启动Nginx-------------"
#关闭防火墙
systemctl stop firewalld
/usr/local/nginx/sbin/nginx

以上文件复制到nginx.sh脚本文件中然后上传到linux服务器上执行即可
执行时只需要选择y就好,脚本会自动帮我们把依赖和相关插件安装上
在这里插入图片描述
编译完成之后出现这种即代表安装成功
在这里插入图片描述
我们还可以使用ps -ef | grep nginx命令来查看nginx进程是否存在
在这里插入图片描述
脚本默认帮我们把防火墙关闭了,我们在浏览器上输出虚拟机的ip即可访问到我们的nginx
在这里插入图片描述

至此nginx的安装就完成了

2.配置负载均衡
现在我们在两台虚拟机运行我们相同的两个Spring Boot项目
在这里插入图片描述
在这里插入图片描述
3.编写nginx的配置文件
修改nginx.conf文件里面的内容,用上面脚本安装的默认会在/usr/local/nginx/conf里面,如果安装的时候配置了其他目录可以自行寻找,也可以使用find / -name nginx.conf 命令查找,找到之后修改里面内容为

user  root;
#全局错误日志
error_log  /usr/local/nginx/logs/nginx_error.log crit;
#pid文件存放路径
pid        /usr/local/nginx/nginx.pid;
#单进程打开的最大文件数
worker_rlimit_nofile 5000;
#工作模式及连接数上限
events {
	use epoll;
	#每个进程最大连接数(最大连接=连接数x进程数)
	worker_connections  5120;
}

http {
    #设定mime类型
    include       mime.types;
    default_type  application/octet-stream;

#日志格式为json
log_format json '{"@timestamp":"$time_iso8601",'
'"host":"$server_addr",'
'"clientip":"$remote_addr",'
'"size":$body_bytes_sent,'
'"responsetime":$request_time,'
'"upstreamtime":"$upstream_response_time",'
'"upstreamhost":"$upstream_addr",'
'"http_host":"$host",'
'"url":"$uri",'
'"referer":"$http_referer",'
'"agent":"$http_user_agent",'
'"status":"$status"}';	
#反向代理配置文件 (由于此配置单纯用来负载均衡,所以预留反向代理的文件配置,实际上需要用到在conf目录下创建proxy.conf并且写入配置取消当前注释,即可使用)
#include proxy.conf;
#虚拟主机配置文件   如果是1.81版本必须为全路径
include /usr/local/nginx/vhosts/*.conf;
#默认编码
charset utf8;
#关闭nginx版本号
server_tokens off;
#服务器名字的哈希存储大小
server_names_hash_bucket_size 128;
#设定请求缓冲,nginx默认会用client_header_buffer_size这个buffer来读取header值,如果header过大,它会使用large_client_header_buffers来读取
client_header_buffer_size 32k;
large_client_header_buffers 4 32k;
#sendfile 指令指定 nginx 是否调用 sendfile 函数(zero copy 方式)来输出文件,对于普通应用,必须设为 on。如果用来进行下载等应用磁盘IO重负载应用,可设置为 off,以平衡磁盘与网络IO处理速度,降低系统 uptime。
sendfile on;
#客户端发送内容超时
send_timeout 60;
#网络连接选择
tcp_nopush on;
#指定客户端保活超时时间
keepalive_timeout 60;
#网络连接选择
tcp_nodelay on;
#设置gzip
gzip on;
#最小压缩文件大小
gzip_min_length 1k;
#压缩缓冲区
gzip_buffers 4 16k;
#压缩版本
gzip_http_version 1.0;
#压缩比率
gzip_comp_level 7;
#压缩类型
gzip_types text/plain application/json application/x-javascript text/css application/xml;
#vary header支持
gzip_vary on;
#目录限速
#limit_zone crawler $binary_remote_addr 10m;
access_log /usr/local/nginx/logs/access_json.log json;
#配置负载均衡 xuan可以自行修改
upstream kanavi{
    #ip_hash; 负载均衡算法,可以百度,默认不填为轮询
    #这个代表你要分发的服务器网站ip地址  如果有两个
    server 192.168.129.136:81;
    #可以配置多个看效果
    #server 192.168.129.137:81;
}
}

在另外引入的配置文件里面写入我们的另外一个配置(include /usr/local/nginx/vhosts/*.conf;)
文件名随意起,只要后缀是.conf即可
写入以下配置

server
{
#监听80
listen 85;
#这里配置的是域名 我这里就暂时用当前服务器ip (nginx服务器ip地址+端口) 实际中用域名即可 当有人访问你配置的这个域名,则自动到下面的location,然后location再代理到upstream,upstream则分发到我们配置的baidu.com
#假设这里配置的server_name是xuan.com 那么域名解析到你这个nginx的服务器时,当别人通过xuan.com访问的时候,nginx则会读取这个文件的配置,从而再到下面的location,然后location再代理到nginx主配置当中的upstream
#然后upstream 里面是可以配置多个ip或者域名的,比方说我有两个你好的jsp的java项目,两个tomcat在不同的端口,但是在同一个服务器,比方说这个服务器ip为123.456.78.0,那么upstream的配置就是123.456.78.0
#但是123.456.78.0装了两个tomcat端口号分别为8081以及8082,那么upstream里面的server配置项就可以弄两个,一个是123.456.78.0:8081,另一个就是123.456.67.0:8082了
#当别人来访问的时候,upstream就会自动分发到8081或者8082,减轻tomcat服务器压力,实现负载均衡
server_name 192.168.129.136;
#代表默认访问index.jsp文件,这里跳转的是baidu所以注释掉了
#index index.jsp;
#日志访问记录文件位置 记得修改为自己的文件路径
#access_log  /app/logs/xuan_log.log json;
#error_log  /app/logs/xuan_error_log.log error;
#这是java的ROOT文件夹,也就是项目war包解压后的文件夹 这里可以暂时注释,如果是java项目则可以启用
#root /ROOT;

location /
{
limit_rate 500k;
proxy_read_timeout 600s;
proxy_next_upstream http_502 http_504 error timeout invalid_header;
#到这里的时候会转发到nginx主配置当中的upstream为kanavi的配置的ip地址去
proxy_pass http://kanavi;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
}

重启nginx即可
使用 kill -9 ps -ef | grep nginx |awk '{print $2}'命令杀掉和nginx相关的所有进程然后再进入sbin/目录下启动nginx
第一次访问
在这里插入图片描述
第二次访问
在这里插入图片描述
至此关于nginx的负载均衡就已经搭建完毕

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spring Cloud是一种开源的微服务框架,可帮助开发人员快速构建分布式应用程序。Nacos是阿里巴巴开源的一款服务发现和配置中心,可以实现服务的注册、发现、配置和管理。Nginx是一款开源的高性能Web服务器,可用于负载均衡和反向代理。Redis是一款高性能的Key-Value存储系统,可用于缓存、消息队列和分布式锁等场景。 要编写一个Spring Cloud + Nacos + Nginx + Redis的项目,您需要进行以下步骤: 1.使用Spring Cloud框架搭建微服务架构,将业务拆分成不同的服务,每个服务都是独立的,具有独立的数据库和API接口。 2.使用Nacos作为服务发现和配置中心,将所有服务的地址和配置信息注册到Nacos中,并实现服务的自动发现和负载均衡。 3.使用Nginx作为反向代理服务器,将客户端的请求转发到不同的服务节点,实现负载均衡和高可用性。 4.使用Redis作为缓存服务器,将经常被查询的数据存储在Redis中,以提高系统的性能和响应速度。 5.通过使用Spring Cloud Gateway或Spring Cloud LoadBalancer,实现请求路由、负载均衡和服务降级等功能。 6.使用Spring Boot Actuator监控系统运行状态,收集系统运行指标,并将这些指标导出到Prometheus中,实现系统的监控和告警。 以上就是编写一个Spring Cloud + Nacos + Nginx + Redis项目的基本步骤,您还可以根据具体的业务需求和实际情况进行更多的定制和优化。 ### 回答2: 编写一个基于Spring Cloud、Nacos、Nginx和Redis的项目如下: 1. 首先,我们需要搭建一个Spring Cloud的微服务架构,以便于实现服务的注册与发现、负载均衡等功能。可以使用Spring Cloud的各种组件如Eureka、Ribbon等来实现。 2. 接下来,我们需要使用Nacos来作为服务注册中心,以实现服务的注册和发现。Nacos提供了丰富的功能,包括服务注册、配置管理、流量管理等。通过在项目中引入Nacos的依赖,并配置相关的注册中心地址,我们可以实现服务的自动注册和发现。 3. 使用Nginx作为反向代理服务器,用于实现负载均衡、流量控制等功能。通过配置Nginx的代理规则,将请求转发到对应的后端服务实例上。 4. 引入Redis作为缓存服务器,用于提高系统性能和响应速度。可以使用Spring Data Redis来操作Redis,实现缓存的读写等操作。 综上所述,通过搭建Spring Cloud微服务架构,使用Nacos作为服务注册中心,Nginx作为反向代理服务器,Redis作为缓存服务器,我们可以实现一个完整的基于这些技术栈的项目。在项目中,可以根据实际需求进行配置和开发,实现服务的高可用、容错性和性能优化等功能。这样的架构可以提供更好的扩展性和可维护性,并且能够满足大多数现代化分布式系统的需求。 ### 回答3: 编写一个Spring Cloud + Nacos + Nginx + Redis项目涉及以下几个方面的功能和组件: 1. Spring Cloud:使用Spring Cloud框架搭建微服务架构,通过服务注册发现、负载均衡等功能实现微服务之间的通信和协作。 2. Nacos:使用Nacos作为服务注册中心和配置中心,实现服务的注册与发现、配置的管理和动态更新。 3. Nginx使用Nginx作为反向代理服务器,实现请求的分发和负载均衡,将接收到的请求分发给不同的微服务实例。 4. Redis:使用Redis作为缓存服务器,提高系统性能和响应速度,在需要频繁读取的数据或计算结果上进行缓存,减轻数据库的压力。 项目开发的步骤如下: 1. 首先,搭建Spring Cloud的基础架构,包括创建微服务的模块、定义服务接口等。 2. 配置Nacos作为服务注册中心,将微服务注册到Nacos上,并实现服务发现功能,让微服务能够相互调用。 3. 使用Nacos作为配置中心,管理各个微服务的配置信息,通过动态读取配置文件实现配置的更新和加载。 4. 配置Nginx反向代理服务器,将请求分发给不同的微服务实例,实现负载均衡和高可用。 5. 使用Redis来作为缓存服务器,在需要的地方添加缓存逻辑,例如缓存查询结果、页面数据等。 通过以上步骤,我们可以搭建一个基于Spring Cloud、Nacos、Nginx和Redis的微服务架构项目,实现了服务注册与发现、动态配置、负载均衡和缓存等功能,提高了系统的性能和可扩展性。这种项目结构可用于构建分布式、高可用性的企业级应用程序。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值