HA高可用
文章平均质量分 89
木讷大叔爱运维
对的那条路,往往不是最好走的!
展开
-
lvs的nat模式和dr模式
一.lvs的nat模式:web端:192.168.3.124 通过访问nginx的反向代理192.168.8.123:80,传送到后端realserver上。lvs端eth0: dip 192.168.3.123 eth0:0 vip 192.168.8.123 realserver1端eth0:192.168.3.128 echo "hello,192.原创 2014-12-24 09:45:45 · 1950 阅读 · 0 评论 -
haproxy实现负载均衡和动静分离
在做过了haprxy负载均衡和动静分离后,haproxy在这两方面的确比nginx更专业一些,session保持,cookie引导,url监测后端,mysql负载均衡等都是nginx所不具备的;但这并不能就说haprox就能取代nginx,nginx的缓存就是proxy所不具备的。下面就来用haproxy做些基础的配置吧。haproxy:192.168.3.124node1:192.1原创 2015-01-12 16:17:20 · 3031 阅读 · 0 评论 -
haproxy实现tcp代理
简介haproxy大多数情况下在http(七层)代理,如apache,tomcat等,下面我们就来讲下haproxy的tcp(四层)代理,可以用于ssh、mysql、mongodb等多种场合。需求 ip 应用 角色 10.10.10.15 haproxy tcp代理 10.10.10.16 mongodb master 10.10.10.17 mongodb原创 2016-07-29 09:44:58 · 12194 阅读 · 0 评论 -
pacemaker+drbd双主
简介 drbd双主模式,我们可以同时访问两个节点上drbd资源,以达到负载均衡的效果。在drbd双主模式下,需要共享集群操作系统,如GFS2或OCFS2,以及分布式锁DLM实现锁。下面我们就来介绍下pacemaker+DRBD主从实现的高可用集群。注:此文是在博文“pacmaker+drbd主从”为基础环境进行的配置。配置fence GFS2及DLM需要cluster运行fence,因此我们需要原创 2016-02-16 09:52:23 · 6212 阅读 · 4 评论 -
pacemaker+drbd主从
简介 前面讲到corosync+pacemaker实现高可用以及drbd主从,能不能将两者结合在一起提供服务器呢?答案是肯定的,下面我们就来试验下。corosync+pacemaker的基础环境请参考博文“corosync+pacemaker实现高可用”,我们在此基础上(Centos7.2)重新搭建drbd主从并将其加入到高可用环境中。drbd1.安装drbdrpm --import https:原创 2016-02-16 09:51:16 · 3836 阅读 · 0 评论 -
corosync+pacemaker高可用
简介 说到高可用,我们可能会用heartbeat和keepalived,也可能会用corosync+pacemaker,但他们之间有什么区别呢?我们在此主要谈下heartbeat和corosync+pacemaker之间的渊源。 Heartbeat到了v3版本后,拆分为多个子项目,其中pacemaker就是拆分出来的资源管理器。Heartbeat 3.0拆分之后的组成部分:为: 1.Hea原创 2016-02-16 09:48:15 · 5310 阅读 · 2 评论 -
drbd主从
简介 DRBD(Distributed Replication Block Device,分布式复制块设备)是由内核模块和相关脚本构成,用以构建高可用集群;其实现方式是通过网络来镜像整个设备,可以看做是一种网络raid1。工作要点1.drbd的数据传输有三种:同步,半同步,异步,为了数据的安全性,最好选择同步协议; 2.drbd资源的工作模型有主从模型和双主模型: (1).主从模型时2个节点不原创 2016-01-12 15:36:59 · 3148 阅读 · 0 评论 -
nagios监控heartbeat
heartbeat架好后,我们就需要监控起来喽,下面我们就来了解下怎么监控。首先来了解下几个命令,这几个命令在heartbeat安装后会自动加上,我们的监控脚本就用到这几个命令。[root@usvr-210 libexec]# which cl_status/usr/bin/cl_status[root@usvr-210 libexec]# cl_status listnodes原创 2015-02-01 20:52:11 · 978 阅读 · 0 评论 -
heartbeat+ldirectord+lvs nat
lvs端:node1eth0:192.168.3.124eth0:192.168.8.124用于heartbeat心跳node2eth0:192.168.3.126eth0:192.168.8.126用于heartbeat心跳realserver端:web1eth0:192.168.3.128eth0:0:192.168.8.128 web2eth0原创 2015-01-01 10:14:37 · 1218 阅读 · 0 评论 -
heartbeat及相关组件的安装
自己本打算尝试下ldirectord的效果,但是苦于无法找到yum安装源和编译源码,所以无从下手,花了很长时间寻找,功夫不负有心人,终于找到了。在此特别感谢博主yangshiqi1089,此文详细链接为:http://blog.csdn.net/yangshiqi1089/article/details/5987865一、关于Heartbeat 31、版本问题Heart转载 2014-12-29 17:34:04 · 1095 阅读 · 0 评论 -
heartbeat实现nginx热备
heartbeat实现热备原理:与keepalived运用vrrp协议不同,heartbeat利用串口和ip实现心跳监控,节点会检查配置文件中的网络联通性,如果网络不通,则主节点的ipfail会执行切换,关闭主节点上的nginx并释放虚拟ip;此时备用节点将接管虚拟ip,并将此节点上的nginx启动,这样就实现了nginx的热备。虚拟ip:192.168.3.233主节点:原创 2014-12-12 14:18:30 · 2192 阅读 · 2 评论 -
heartbeat报错 attempted replay attack
线上将两台lvs服务器做heartbeat热备,但是配置启动后,发现报错:Jan 28 15:50:22 usvr-211 heartbeat: [2266]: ERROR: should_drop_message: attempted replay attack [usvr-210]? [gen = 1418354318, curgen = 1418354319]Jan 28 15:50原创 2015-02-01 20:54:59 · 1639 阅读 · 0 评论 -
iptables导致heartbeat脑裂
在将heartbeat应用到生产环境中,还是有许多要注意的地方,一不小心就可能导致heartbeat无法切换或脑裂的情况,下面来介绍下由于iptables导致脑裂的现象。主:192.168.3.218 192.168.4.218 心跳ip usvr-218 主机名备:192.168.3.128 192.168.4.128 心跳ip us原创 2015-02-01 21:02:48 · 1884 阅读 · 0 评论 -
heartbeat启动后无反应
在将heartbeat应用到线上后,启动service heartbeat start,发现之后就再没反应了,查看日志tail -f /var/log/ha-log如下:heartbeat[30680]: 2015/01/27_18:04:29 info: Version 2 support: falseheartbeat[30680]: 2015/01/27_18:04:29 WARN:原创 2015-02-01 20:56:55 · 3083 阅读 · 0 评论 -
Centos7.3基于iscsi+pacemaker+corosync+gfs2+clvmd实现磁盘共享
需求我们的某个服务需要通过将数据目录挂载到共享存储上,每个节点都能访问存储中的数据,以实现多节点的集群高可用。在之前的博文pacemaker+drbd双主中我们通过drbd+gfs2实现,那有没有更简单点的方式呢?本文将介绍iscsi+pacemaker+corosync+gfs2+clvmd实现存储的共享。大家都知道多节点是可以同时挂载同一个iscsi存储的,若使用lvm创建的分...原创 2018-07-29 01:20:56 · 7233 阅读 · 6 评论