Dubbo 高可用架构 FastDFS集群的使用

[root@master1 ~]# /usr/bin/fdfs_upload_file /etc/fdfs/client.conf /usr/local/src/FastDFS_v5.05.tar.gz
group2/M00/00/00/wKjl0F5xmJmAfktEAAVFOL7FJU4.tar.gz
[root@master1 ~]#


FastDFS 是一个开源的分布式文件系统,它对文件进行管理,功能包括:文件存储、文件同步、文件
访问(文件上传、文件下载)等,解决了大容量存储和负载均衡的问题。特别适合以文件为载体的在线服
务,如相册网站、视频网站等等。
FastDFS 服务端有两个角色:跟踪器(tracker)和存储节点(storage)。

跟踪服务器 1:192.168.1.131   edu-dfs-tracker-1
跟踪服务器 2:192.168.1.132   edu-dfs-tracker-2
存储服务器 1:192.168.1.135   edu-dfs-storage-group1-1
存储服务器 2:192.168.1.136   edu-dfs-storage-group1-2
存储服务器 3:192.168.1.137   edu-dfs-storage-group2-1
存储服务器 4:192.168.1.138   edu-dfs-storage-group2-2


FastDFS 集群规划:
跟踪服务器 1:192.168.229.204   master1
跟踪服务器 2:192.168.229.205   master2
存储服务器 1:192.168.229.206   master3
存储服务器 2:192.168.229.207   slave1
存储服务器 3:192.168.229.208   slave2
存储服务器 4:192.168.229.209   slave3

源码地址:https://github.com/happyfish100/
下载地址:http://sourceforge.net/projects/fastdfs/files/
官方论坛:http://bbs.chinaunix.net/forum-240-1.html


一、FastDFS 的安装(所有跟踪服务器和存储服务器均执行如下操作)
1、编译和安装所需的依赖包: # yum install make cmake gcc gcc-c++

2、安装 libfastcommon (https://github.com/happyfish100/libfastcommon)
(1)上传或下载 libfastcommon-master.zip 到/usr/local/src 目录,解压
# cd /usr/local/src/
# unzip libfastcommon-master.zip
# cd libfastcommon-master
 编译、安装
# ./make.sh
# ./make.sh install
libfastcommon 默认安装到了
/usr/lib64/libfastcommon.so
/usr/lib64/libfdfsclient.so
(4)因为 FastDFS 主程序设置的 lib 目录是/usr/local/lib,所以需要创建软链接.
# ln -s /usr/lib64/libfastcommon.so /usr/local/lib/libfastcommon.so
# ln -s /usr/lib64/libfastcommon.so /usr/lib/libfastcommon.so
# ln -s /usr/lib64/libfdfsclient.so /usr/local/lib/libfdfsclient.so
# ln -s /usr/lib64/libfdfsclient.so /usr/lib/libfdfsclient.so
----------------------------------------------------------------------------
[root@master1 ~]# ansible all -m shell -a 'yum install zip unzip -y'
[root@master1 ~]# ansible all -m shell -a 'cd /usr/local/src/ && unzip libfastcommon-master.zip'
[root@master1 ~]# ansible all -m shell -a 'yum install perl -y'
[root@master1 ~]# ansible all -m shell -a 'cd /usr/local/src/libfastcommon-master && ./make.sh'
[root@master1 ~]# ansible all -m shell -a 'cd /usr/local/src/libfastcommon-master && ./make.sh install'
ansible all -m shell -a 'ln -s /usr/lib64/libfastcommon.so /usr/local/lib/libfastcommon.so'
ansible all -m shell -a 'ln -s /usr/lib64/libfastcommon.so /usr/lib/libfastcommon.so'
ansible all -m shell -a 'ln -s /usr/lib64/libfdfsclient.so /usr/local/lib/libfdfsclient.so'
ansible all -m shell -a 'ln -s /usr/lib64/libfdfsclient.so /usr/lib/libfdfsclient.so'
-----------------------------------------------------------------------------------------------
[root@master1 package]# ansible all -m copy -a "src=/root/package/FastDFS_v5.05.tar.gz  dest=/usr/local/src/"
[root@master1 ~]# ansible all -m shell -a 'cd /usr/local/src && tar -zxvf FastDFS_v5.05.tar.gz'

[root@master1 ~]# ansible all -m shell -a 'cd /usr/local/src/FastDFS && ./make.sh && ./make.sh install'


-----------------------------------------------------------------------------------------------
3、安装 FastDFS (https://github.com/happyfish100/fastdfs/releases)
(1)上传或下载 FastDFS 源码包(FastDFS_v5.05.tar.gz)到 /usr/local/src 目录,解压
# cd /usr/local/src/
# tar -zxvf FastDFS_v5.05.tar.gz
# cd FastDFS
(3)编译、安装(编译前要确保已经成功安装了 libfastcommon)
# ./make.sh
# ./make.sh install
采用默认安装的方式安装,安装后的相应文件与目录:
A、服务脚本在:
/etc/init.d/fdfs_storaged
/etc/init.d/fdfs_tracker
B、配置文件在(样例配置文件):
/etc/fdfs/client.conf.sample
/etc/fdfs/storage.conf.sample
/etc/fdfs/tracker.conf.sample
C、命令工具在/usr/bin/目录下的:
fdfs_appender_test
fdfs_appender_test1
fdfs_append_file
fdfs_crc32
fdfs_delete_file
fdfs_download_file
fdfs_file_info
fdfs_monitor
fdfs_storaged
fdfs_test
fdfs_test1
fdfs_trackerd
fdfs_upload_appender
fdfs_upload_file
stop.sh
restart.sh

(4)因为 FastDFS 服务脚本设置的 bin 目录是/usr/local/bin,
但实际命令安装在/usr/bin,可以进入/user/bin 目录使用以下命令查看 fdfs 的相关命令:
# cd /usr/bin/
   # ls | grep fdfs

因此需要修改 FastDFS 服务脚本中相应的命令路径,也就是把/etc/init.d/fdfs_storaged
和/etc/init.d/fdfs_tracker 两个脚本中的/usr/local/bin 修改成/usr/bin:
# vi /etc/init.d/fdfs_trackerd
使用查找替换命令进统一修改:%s+/usr/local/bin+/usr/bin
# vi /etc/init.d/fdfs_storaged
使用查找替换命令进统一修改:%s+/usr/local/bin+/usr/bin

注意:以上操作无论是配置 tracker 还是配置 storage 都是必须的,而 tracker 和 storage 的区别主要是
在安装完 fastdfs 之后的配置过程中。


二、配置 FastDFS 跟踪器 Tracker (192.168.229.204 、192.168.229.205)
1、 复制 FastDFS 跟踪器样例配置文件,并重命名:
# cd /etc/fdfs/
# cp tracker.conf.sample tracker.conf
2、 编辑跟踪器配置文件: # vi /etc/fdfs/tracker.conf
修改的内容如下:
disabled=false     #启用配置文件
port=22122     #tracker 的端口号,一般采用 22122 这个默认端口
base_path=/fastdfs/tracker  #tracker 的数据文件和日志目录
(其它参数保留默认配置,具体配置解释请参考官方文档说明:http://bbs.chinaunix.net/thread
1941456-1-1.html )

3、 创建基础数据目录(参考基础目录 base_path 配置): # mkdir -p /fastdfs/tracker

4、 防火墙中打开跟踪器端口(默认为 22122): # vi /etc/sysconfig/iptables
添加如下端口行:
## FastDFS Tracker Port
-A INPUT -m state --state NEW -m tcp -p tcp --dport 22122 -j ACCEPT
重启防火墙:
# service iptables restart

5、 启动 Tracker: # /etc/init.d/fdfs_trackerd start
(初次成功启动,会在/fastdfs/tracker 目录下创建 data、logs 两个目录)可以通过以下两个方法查
看 tracker 是否启动成功:

(1)查看 22122 端口监听情况:netstat -unltp|grep fdfs

(2)通过以下命令查看 tracker 的启动日志,看是否有错误
tail -100f  /fastdfs/tracker/logs/trackerd.log
6、 关闭 Tracker: # /etc/init.d/fdfs_trackerd stop

7、 设置 FastDFS 跟踪器开机启动: # vi /etc/rc.d/rc.local
添加以下内容:
## FastDFS Tracker
/etc/init.d/fdfs_trackerd start


三、配置 FastDFS 存储 ( 192.168.229.206 、192.168.229.207 、192.168.229.208 、192.168.229.209 )
1、 复制 FastDFS 存储器样例配置文件,并重命名: # cd /etc/fdfs/
# cp storage.conf.sample storage.conf
2、 编辑存储器样例配置文件(以 group1 中的 storage 节点的 storage.conf 为例) : # vi /etc/fdfs/storage.conf
修改的内容如下:
disabled=false      #启用配置文件
group_name=group1        #组名(第一组为 group1,第二组为 group2)
port=23000      #storage 的端口号,同一个组的 storage 端口号必须相同
base_path=/fastdfs/storage   #设置 storage 的日志目录
store_path0=/fastdfs/storage   #存储路径
store_path_count=1     #存储路径个数,需要和 store_path 个数匹配
tracker_server=192.168.229.204:22122 #tracker 服务器的 IP 地址和端口
tracker_server=192.168.229.205:22122 #多个 tracker 直接添加多条配置
http.server_port=8888    #设置 http 端口号
(其它参数保留默认配置,具体配置解释请参考官方文档说明:
http://bbs.chinaunix.net/thread-1941456-1-1.html )

3、 创建基础数据目录(参考基础目录 base_path 配置): # mkdir -p /fastdfs/storage
4、 防火墙中打开存储器端口(默认为 23000): # vi /etc/sysconfig/iptables
添加如下端口行:
## FastDFS Storage Port
-A INPUT -m state --state NEW -m tcp -p tcp --dport 23000 -j ACCEPT
重启防火墙:
# service iptables restart

5、 启动 Storage: # /etc/init.d/fdfs_storaged start
(初次成功启动,会在/fastdfs/storage 目录下创建数据目录 data 和日志目录 logs)
各节点启动动,使用 tail -f /fastdfs/storage/logs/storaged.log 命令监听存储节点日志,可以
看到存储节点链接到跟踪器,并提示哪一个为 leader 跟踪器。同时也会看到同一组中的其他节点加入
进来的日志信息。

查看 23000 端口监听情况:netstat -unltp|grep fdfs

所有 Storage 节点都启动之后,可以在任一 Storage 节点上使用如下命令查看集群信息:
# /usr/bin/fdfs_monitor /etc/fdfs/storage.conf

可以看到存储节点状态为 ACTIVE 则可
6、 关闭 Storage: # /etc/init.d/fdfs_storaged stop

7、 设置 FastDFS 存储器开机启动: # vi /etc/rc.d/rc.local
添加:
## FastDFS Storage
/etc/init.d/fdfs_storaged start


四、文件上传测试 ( 192.168.229.204 )
1、修改 Tracker 服务器中的客户端配置文件:
 # cp /etc/fdfs/client.conf.sample /etc/fdfs/client.conf
 # vi /etc/fdfs/client.conf
 base_path=/fastdfs/tracker
tracker_server=192.168.229.204:22122
tracker_server=192.168.229.205:22122

2、执行如下文件上传命令:
 # /usr/bin/fdfs_upload_file /etc/fdfs/client.conf /usr/local/src/FastDFS_v5.05.tar.gz
 返回 ID 号:
group1/M00/00/00/wKgBh1Xtr9-AeTfWAAVFOL7FJU4.tar.gz
group2/M00/00/00/wKgBiVXtsDmAe3kjAAVFOL7FJU4.tar.gz
 (能返回以上文件 ID,说明文件上传成功)


六、在各存储节点(192.168.229.206、192.168.229.207、192.168.229.208、192.168.229.209)上安装 Nginx
1、fastdfs-nginx-module 作用说明
FastDFS 通过 Tracker 服务器,将文件放在 Storage 服务器存储,但是同组存储服务器之间需要进入
文件复制,有同步延迟的问题。假设 Tracker 服务器将文件上传到了 192.168.229.206,上传成功后文件 ID
已经返回给客户端。此时 FastDFS 存储集群机制会将这个文件同步到同组存储 192.168.229.207,在文件还
没有复制完成的情况下,客户端如果用这个文件 ID 在 192.168.229.207 上取文件,就会出现文件无法访问的
错误。而 fastdfs-nginx-module 可以重定向文件连接到源服务器取文件,避免客户端由于复制延迟导致的
文件无法访问错误。(解压后的 fastdfs-nginx-module 在 nginx 安装时使用)

2、上传 fastdfs-nginx-module_v1.16.tar.gz 到/usr/local/src,解压
# cd /usr/local/src/
# tar -zxvf fastdfs-nginx-module_v1.16.tar.gz

3、修改 fastdfs-nginx-module 的 config 配置文件
 # vi /usr/local/src/fastdfs-nginx-module/src/config
CORE_INCS="$CORE_INCS /usr/local/include/fastdfs /usr/local/include/fastcommon/"
修改为:CORE_INCS="$CORE_INCS /usr/include/fastdfs /usr/include/fastcommon/"
 (注意:这个路径修改是很重要的,不然在 nginx 编译的时候会报错的)


4、上传当前的稳定版本 Nginx(nginx-1.6.2.tar.gz)到/usr/local/src 目录

5、安装编译 Nginx 所需的依赖包
yum install gcc gcc-c++ make automake autoconf libtool pcre pcre-devel zlib zlib-devel openssl openssl-devel openssl-devel -y

6、编译安装 Nginx(添加 fastdfs-nginx-module 模块)
# cd /usr/local/src/
# tar -zxvf nginx-1.6.2.tar.gz
# cd nginx-1.6.2
# ./configure --prefix=/usr/local/nginx --add-module=/usr/local/src/fastdfs-nginx-module/src
# make && make install

7、复制 fastdfs-nginx-module 源码中的配置文件到/etc/fdfs 目录,并修改
# cp /usr/local/src/fastdfs-nginx-module/src/mod_fastdfs.conf /etc/fdfs/
 # vi /etc/fdfs/mod_fastdfs.conf
(1)第一组 Storage 的 mod_fastdfs.conf 配置如下:
connect_timeout=10
base_path=/tmp
tracker_server=192.168.229.204:22122
tracker_server=192.168.229.205:22122
 storage_server_port=23000
group_name=group1
url_have_group_name = true
store_path0=/fastdfs/storage
group_count = 2
[group1]
group_name=group1
storage_server_port=23000
store_path_count=1
store_path0=/fastdfs/storage
[group2]
group_name=group2
storage_server_port=23000
store_path_count=1
store_path0=/fastdfs/storage

(2)第一组 Storage 的 mod_fastdfs.conf 配置与第一组配置只有 group_name 不同:
group_name=group2

8、复制 FastDFS 的部分配置文件到/etc/fdfs 目录
 # cd /usr/local/src/FastDFS/conf
# cp http.conf mime.types /etc/fdfs/
9、在/fastdfs/storage 文件存储目录下创建软连接,将其链接到实际存放数据的目录
 # ln -s /fastdfs/storage/data/ /fastdfs/storage/data/M00

10、配置 Nginx,简洁版 nginx 配置样例:
# vi /usr/local/nginx/conf/nginx.conf
user  root;
worker_processes  1;
events {
    worker_connections  1024;
}
http {
    include       mime.types;
    default_type  application/octet-stream;
    sendfile        on;
    keepalive_timeout  65;
    server {
        listen       8888;
        server_name  localhost;
        location ~/group([0-9])/M00 {
            #alias /fastdfs/storage/data;
            ngx_fastdfs_module;
        }
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }
}
注意、说明:
A、8888 端口值是要与/etc/fdfs/storage.conf 中的 http.server_port=8888 相对应,
因为 http.server_port 默认为 8888,如果想改成 80,则要对应修改过来。
B、Storage 对应有多个 group 的情况下,访问路径带 group 名,如/group1/M00/00/00/xxx,
对应的 Nginx 配置为:
location ~/group([0-9])/M00 {
  ngx_fastdfs_module;
}
C、如查下载时如发现老报 404,将 nginx.conf 第一行 user nobody 修改为 user root 后重新启动。

11、防火墙中打开 Nginx 的 8888 端口
 # vi /etc/sysconfig/iptables
 添加:
 ## Nginx Port
-A INPUT -m state --state NEW -m tcp -p tcp --dport 8888 -j ACCEPT
重启防火墙: # service iptables restart


12、启动 Nginx
# /usr/local/nginx/sbin/nginx
ngx_http_fastdfs_set pid=xxx
(重启 Nginx 的命令为:/usr/local/nginx/sbin/nginx -s reload)
设置 Nginx 开机启动
# vi /etc/rc.local
加入:
/usr/local/nginx/sbin/nginx

13、通过浏览器访问测试时上传的文件
 http://192.168.229.206:8888/group1/M00/00/00/wKgBh1Xtr9-AeTfWAAVFOL7FJU4.tar.gz
http://192.168.229.208:8888/group2/M00/00/00/wKgBiVXtsDmAe3kjAAVFOL7FJU4.tar.gz


七、在跟踪器节点(192.168.229.204、192.168.229.205)上安装 Nginx
1、在 tracker 上安装的 nginx 主要为了提供 http 访问的反向代理、负载均衡以及缓存服务。

2、安装编译 Nginx 所需的依赖包
# yum install gcc gcc-c++ make automake autoconf libtool pcre pcre-devel zlib zlib-devel
openssl openssl-devel

3、上传 ngx_cache_purge-2.3.tar.gz 到/usr/local/src,解压
# cd /usr/local/src/
# tar -zxvf ngx_cache_purge-2.3.tar.gz

4、上传当前的稳定版本 Nginx(nginx-1.6.2.tar.gz)到/usr/local/src 目录

5、编译安装 Nginx(添加 ngx_cache_purge 模块)
 # cd /usr/local/src/
 # tar -zxvf nginx-1.6.2.tar.gz
# cd nginx-1.6.2
# ./configure --prefix=/usr/local/nginx --add-module=/usr/local/src/ngx_cache_purge-2.3
# make && make install

6、配置 Nginx,设置负载均衡以及缓存
# vi /usr/local/nginx/conf/nginx.conf
user  root;
worker_processes  1;

#error_log  logs/error.log;
#error_log  logs/error.log  notice;
#error_log  logs/error.log  info;
#pid        logs/nginx.pid;

events {
worker_connections  1024;
use epoll;
}

http {
    include       mime.types;
    default_type  application/octet-stream;

    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
    #                  '$status $body_bytes_sent "$http_referer" '
    #                  '"$http_user_agent" "$http_x_forwarded_for"';

    #access_log  logs/access.log  main;

    sendfile        on;
    tcp_nopush     on;

    #keepalive_timeout  0;
    keepalive_timeout  65;

#gzip  on;
#设置缓存
    server_names_hash_bucket_size 128;
    client_header_buffer_size 32k;
    large_client_header_buffers 4 32k;
    client_max_body_size 300m;

    proxy_redirect off;
    proxy_set_header Host $http_host;
    proxy_set_header X-Real-IP $remote_addr;
    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
    proxy_connect_timeout 90;
    proxy_send_timeout 90;
    proxy_read_timeout 90;
    proxy_buffer_size 16k;
    proxy_buffers 4 64k;
    proxy_busy_buffers_size 128k;
proxy_temp_file_write_size 128k;
#设置缓存存储路径、存储方式、分配内存大小、磁盘最大空间、缓存期限
    proxy_cache_path /fastdfs/cache/nginx/proxy_cache levels=1:2
    keys_zone=http-cache:200m max_size=1g inactive=30d;

proxy_temp_path /fastdfs/cache/nginx/proxy_cache/tmp;
#设置 group1 的服务器
    upstream fdfs_group1 {
         server 192.168.229.206:8888 weight=1 max_fails=2 fail_timeout=30s;
         server 192.168.229.207:8888 weight=1 max_fails=2 fail_timeout=30s;
}
#设置 group2 的服务器
    upstream fdfs_group2 {
         server 192.168.229.208:8888 weight=1 max_fails=2 fail_timeout=30s;
         server 192.168.229.209:8888 weight=1 max_fails=2 fail_timeout=30s;
    }

    server {
        listen       8000;
        server_name  localhost;

        #charset koi8-r;

        #access_log  logs/host.access.log  main;
        #设置 group 的负载均衡参数
        location /group1/M00 {
            proxy_next_upstream http_502 http_504 error timeout invalid_header;
            proxy_cache http-cache;
            proxy_cache_valid  200 304 12h;
            proxy_cache_key $uri$is_args$args;
            proxy_pass http://fdfs_group1;
            expires 30d;
        }
        location /group2/M00 {
            proxy_next_upstream http_502 http_504 error timeout invalid_header;
            proxy_cache http-cache;
            proxy_cache_valid  200 304 12h;
            proxy_cache_key $uri$is_args$args;
            proxy_pass http://fdfs_group2;
            expires 30d;
        }

    #设置清除缓存的访问权限
        location ~/purge(/.*) {
            allow 127.0.0.1;
            allow 192.168.1.0/24;
            deny all;
            proxy_cache_purge http-cache $1$is_args$args;
        }
 #error_page  404              /404.html;

        # redirect server error pages to the static page /50x.html
        #
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }
}

按以上 nginx 配置文件的要求,创建对应的缓存目录:
# mkdir -p /fastdfs/cache/nginx/proxy_cache
# mkdir -p /fastdfs/cache/nginx/proxy_cache/tmp

7、系统防火墙打开对应的端口
# vi /etc/sysconfig/iptables
## Nginx
-A INPUT -m state --state NEW -m tcp -p tcp --dport 8000 -j ACCEPT
# service iptables restart

8、启动 Nginx
# /usr/local/nginx/sbin/nginx
重启 Nginx
# /usr/local/nginx/sbin/nginx -s reload
设置 Nginx 开机启动
# vi /etc/rc.local
加入:/usr/local/nginx/sbin/nginx

9、文件访问测试
前面直接通过访问 Storage 节点中的 Nginx 的文件
http://192.168.229.206:8888/group1/M00/00/00/wKgBh1Xtr9-AeTfWAAVFOL7FJU4.tar.gz
http://192.168.229.208:8888/group2/M00/00/00/wKgBiVXtsDmAe3kjAAVFOL7FJU4.tar.gz
现在可以通过 Tracker 中的 Nginx 来进行访问
(1)通过 Tracker1 中的 Nginx 来访问
http://192.168.229.204:8000/group1/M00/00/00/wKgBh1Xtr9-AeTfWAAVFOL7FJU4.tar.gz
http://192.168.229.204:8000/group2/M00/00/00/wKgBiVXtsDmAe3kjAAVFOL7FJU4.tar.gz
(2)通过 Tracker2 中的 Nginx 来访问
http://192.168.229.205:8000/group1/M00/00/00/wKgBh1Xtr9-AeTfWAAVFOL7FJU4.tar.gz
http://192.168.229.205:8000/group2/M00/00/00/wKgBiVXtsDmAe3kjAAVFOL7FJU4.tar.gz
由上面的文件访问效果可以看到,每一个 Tracker 中的 Nginx 都单独对后端的 Storage 组做了负载均衡,
但整套 FastDFS 集群如果想对外提供统一的文件访问地址,还需要对两个 Tracker 中的 Nginx 进行 HA 集
群。



八、使用 Keepalived + Nginx 组成的高可用负载均衡集群做两个 Tracker 节点中 Nginx 的负载均衡
跟踪服务器 1:192.168.1.131   edu-dfs-tracker-1
跟踪服务器 2:192.168.1.132   edu-dfs-tracker-2
存储服务器 1:192.168.1.135   edu-dfs-storage-group1-1
存储服务器 2:192.168.1.136   edu-dfs-storage-group1-2
存储服务器 3:192.168.1.137   edu-dfs-storage-group2-1
存储服务器 4:192.168.1.138   edu-dfs-storage-group2-2
VIP IP 主机名 Nginx 端口 默认主从
192.168.1.50 192.168.1.51 edu-proxy-01 88 MASTER
             192.168.1.52 edu-proxy-02 88 BACKUP

FastDFS 集群规划:
跟踪服务器 1:192.168.229.204   master1
跟踪服务器 2:192.168.229.205   master2
存储服务器 1:192.168.229.206   master3
存储服务器 2:192.168.229.207   slave1
存储服务器 3:192.168.229.208   slave2
存储服务器 4:192.168.229.209   slave3
VIP IP 主机名 Nginx 端口 默认主从
192.168.229.220 192.168.229.210 edu-proxy-01 88 MASTER
                192.168.229.211 edu-proxy-02 88 BACKUP
2、在 Keepalived+Nginx 实现高可用负载均衡集群中配置 Tracker 节点中 Nginx 的负载均衡反向代理
(192.168.229.210 和 192.168.229.211 中的 Nginx 执行相同的配置)
# vi /usr/local/nginx/conf/nginx.conf
user  root;
worker_processes  1;
#error_log  logs/error.log;
#error_log  logs/error.log  notice;
#error_log  logs/error.log  info;
#pid        logs/nginx.pid;
events {
    worker_connections  1024;
}
http {
    include       mime.types;
    default_type  application/octet-stream;
    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
    #                  '$status $body_bytes_sent "$http_referer" '
    #                  '"$http_user_agent" "$http_x_forwarded_for"';
    #access_log  logs/access.log  main;
    sendfile        on;
    #tcp_nopush     on;
    #keepalive_timeout  0;
    keepalive_timeout  65;
#gzip  on;

    ## FastDFS Tracker Proxy
    upstream fastdfs_tracker {
         server 192.168.229.204:8000 weight=1 max_fails=2 fail_timeout=30s;
         server 192.168.229.205:8000 weight=1 max_fails=2 fail_timeout=30s;
    }

    server {
        listen       88;
        server_name  localhost;
        #charset koi8-r;
        #access_log  logs/host.access.log  main;
        location / {
            root   html;
            index  index.html index.htm;
        }
        #error_page  404              /404.html;
        # redirect server error pages to the static page /50x.html
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
        ## FastDFS Proxy
        location /dfs {
            root   html;
            index  index.html index.htm;
            proxy_pass  http://fastdfs_tracker/;
            proxy_set_header Host  $http_host;
            proxy_set_header Cookie $http_cookie;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
            proxy_set_header X-Forwarded-Proto $scheme;
            client_max_body_size  300m;
        }
    }
}

3、重启 192.168.229.210 和 192.168.229.211 中的 Nginx
# /usr/local/nginx/sbin/nginx -s reload

4、通过 Keepalived+Nginx 组成的高可用负载集群的 VIP(192.168.229.220)来访问 FastDFS 集群中的文件

http://192.168.229.220:88/group1/M00/00/00/wKjlzl5xu1mAfsx5AAVFOL7FJU4.tar.gz
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值