postgresql主从备份_PostgreSQL主从流复制与手动主备切换架构

导读

使用PostgreSQL 11.3 创建两个节点:node1 和 node2; 配置主从流复制,然后做手动切换(failover)。为了配置过程简单,两个节点在同一台物理机器上。

首先建立主从同步流复制,起初,node1作为主节点(Primary),node2作为从节点(Standby)。

接下来,模拟主节点(node1)无法工作,把从节点(node2)手动切换成主节点。然后把原来的主节点(node1)作为从节点加入系统。 此时,node2是主 (Primary), node1是从(Standby)。

最后,模拟主节点(node2)无法工作,把从节点(node1)手动切换成主节点。然后把node2作为从节点加入系统。 此时,node1是主 (Primary), node2是从(Standby)。

创建node1和node2,配置主从流复制

上级目录是:

/Users/tom

两个子目录,testdb113,testdb113b, 分别属于两个节点, node1, node2:

testdb113 --> node1

testdb113b --> node2

创建主节点(Primary) node1

mkdir testdb113

initdb -D ./testdb113

pg_ctl -D ./testdb113 start

node1: 创建数据库账号,用于流复制,创建账号 'replicauser',该账号存在于node1和node2 。

CREATE ROLE replicauser WITH REPLICATION LOGIN ENCRYPTED PASSWORD 'abcdtest';

node1: 创建归档目录

mkdir ./testdb113/archive

node1: 在配置文件中(postgresql.conf)设定参数

#for the primary

wal_level = replica

synchronous_commit = remote_apply

archive_mode = on

archive_command = 'cp %p /Users/tom/testdb113/archive/%f'

max_wal_senders = 10

wal_keep_segments = 10

synchronous_standby_names = 'pgslave001'

#for the standby

hot_standby = on

node1: 编辑文件pg_hba.conf,设置合法地址:

add following to then end of pg_hba.conf

host replication replicauser 127.0.0.1/32 md5

host replication replicauser ::1/128 md5\

node1: 预先编辑文件:recovery.done

注意: 该文件后来才会用到。当node1成为从节点时候,需要把recovery.done重命名为recovery.conf

standby_mode = 'on'

recovery_target_timeline = 'latest'

primary_conninfo = 'host=localhost port=6432 user=replicauser password=abcdtest application_name=pgslave001'

restore_command = 'cp /Users/tom/testdb113b/archive/%f %p'

trigger_file = '/tmp/postgresql.trigger.5432'

创建和配置从节点(node2)

mkdir testdb113b

pg_basebackup -D ./testdb113b

chmod -R 700 ./testdb113b

node2: 编辑文件postgresql.conf,设定参数,这个文件来自node1(由于使用了pg_basebackup),只需要更改其中的个别参数。

#for the primary

port = 6432

wal_level = replica

synchronous_commit = remote_apply

archive_mode = on

archive_command = 'cp %p /Users/tom/testdb113b/archive/%f'

max_wal_senders = 2

wal_keep_segments = 10

synchronous_standby_names = 'pgslave001'

#for the standby

hot_standby = on

node2: 建立归档目录,确保归档目录存在

mkdir ./testdb113b/archive

node2: 检查/编辑文件pg_hba.conf,这个文件来自node1,不需要编辑

node2: 创建/编辑文件recovery.conf

PG启动时,如果文件recovery.conf存在,则工作在recovery模式,当作从节点。如果当前节点升级成主节点,文件recovery.conf将会被重命名为recovery.done。

standby_mode = 'on'

recovery_target_timeline = 'latest'

primary_conninfo = 'host=localhost port=5432 user=replicauser password=abcdtest application_name=pgslave001'

restore_command = 'cp /Users/tom/testdb113/archive/%f %p'

trigger_file = '/tmp/postgresql.trigger.6432'

简单测试

重新启动主节点(node1):

pg_ctl -D ./testdb113 restart

启动从节点(node2)

pg_ctl -D ./testdb113b start

在node1上做数据更改,node1支持数据的写和读

psql -d postgres

postgres=# create table test ( id int, name varchar(100));

CREATE TABLE

postgres=# insert into test values(1,'1');

INSERT 0 1

节点node2读数据,node2是从节点(Standby),只能读,不能写。

psql -d postgres -p 6432

postgres=# select * from test;

id | name

----+------

1 | 1

(1 row)

postgres=# insert into test values(1,'1');

ERROR: cannot execute INSERT in a read-only transaction

postgres=#

模拟主节点node1不能工作时,把从节点node2提升到主节点

停止主节node1,node1停止后,只有node2工作,仅仅支持数据读。

pg_ctl -D ./testdb113 stop

尝试连接到节点node1时失败

因为node1停止了。

Ruis-MacBook-Air:tom$ psql -d postgres

psql: could not connect to server: No such file or directory

Is the server running locally and accepting

connections on Unix domain socket "/tmp/.s.PGSQL.5432"?

尝试连接到node2,成功;插入数据到node2,失败

node2在工作,但是只读

Ruis-MacBook-Air:~ tom$ psql -d postgres -p 6432

psql (11.3)

Type "help" for help.

postgres=# insert into test values(1,'1');

ERROR: cannot execute INSERT in a read-only transaction

postgres=#

node2: 把node2提升到主

提升后,node2成为了主(Primary),既能读,也能写。

touch /tmp/postgresql.trigger.6432

node2: 插入数据到node2,阻塞等待

node2是主节点(Primary),能够成功插入数据。但是由于设置了同步流复制,node2必须等待某个从节点把数据更改应用到从节点,然后返回相应的LSN到主节点。

postgres=# insert into test values(2,'2');

node1: 创建文件recovery.conf

使用之前建立的文件recovery.done作为模版,快速创建recovery.conf。

mv recovery.done recovery.conf

node1: 启动node1,作为从节点(Standby)

启动后,系统中又有两个节点:node2是主,node1是从。

pg_ctl -D ./testdb113 start

插入数据到node2(见3.3)成功返回

由于节点node1作为从节点加入系统,应用主节点的数据更改,然后返回相应WAL的LSN到主节点,使主节点等到了回应,从而事务处理得以继续。

postgres=# insert into test values(2,'2');

INSERT 0 1

postgres=#

分别在node1和node2读取数据

由于两个节点都只是数据读,而且流复制正常工作,所有读取到相同的结果

ostgres=# select * from test;

id | name

----+------

1 | 1

2 | 2

(2 rows)

模拟node2无法工作时,提升node1成为主(Primary)

停止node2

pg_ctl -D ./testdb113b stop

尝试访问node2,失败

因为node2已经停止了.

Ruis-MacBook-Air:~ tom$ psql -d postgres -p 6432

psql: could not connect to server: No such file or directory

Is the server running locally and accepting

connections on Unix domain socket "/tmp/.s.PGSQL.5432"?

node1: 连接到node1,成功;插入数据到node1,失败

node1只读

Ruis-MacBook-Air:~ tom$ psql -d postgres

psql (11.3)

Type "help" for help.

postgres=# insert into test values(3,'3');

ERROR: cannot execute INSERT in a read-only transaction

postgres=#

node1: 提升node1,成为主(Primary)

touch /tmp/postgresql.trigger.5432

node1: 插入数据到node1,阻塞等待

node1成功插入数据,但是要等待从节点的 remote-apply.

postgres=# insert into test values(3,'3');

node2: 创建文件recovery.conf

mv recovery.done recovery.conf

node2: 启动node2,作为从节点(Standby)

pg_ctl -D ./testdb113b start

node1: 插入数据(见4.3)成功返回。

postgres=# insert into test values(3,'3');

INSERT 0 1

分别在node1和node2读取数据

由于两个节点都只是数据读,而且流复制正常工作,所有读取到相同的结果

postgres=# select * from test;

id | name

----+------

1 | 1

2 | 2

3 | 3

(3 rows)

自动化解决方案

当主节点不能工作时,需要把一个从节点提升成为主节点。 如果是手工方式提升,可以使用trigger文件,也可以使用命令'pg_ctl promote' 。

目前也有很多种自动化监控和切换的方案,在网上都能搜索到。或者,可以自己动手写一个自动化监控和切换的方案。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
【优质项目推荐】 1、项目代码均经过严格本地测试,运行OK,确保功能稳定后才上传平台。可放心下载并立即投入使用,若遇到任何使用问题,随时欢迎私信反馈与沟通,博会第一时间回复。 2、项目适用于计算机相关专业(如计科、信息安全、数据科学、人工智能、通信、物联网、自动化、电子信息等)的在校学生、专业教师,或企业员工,小白入门等都适用。 3、该项目不仅具有很高的学习借鉴价值,对于初学者来说,也是入门进阶的绝佳选择;当然也可以直接用于 毕设、课设、期末大作业或项目初期立项演示等。 3、开放创新:如果您有一定基础,且热爱探索钻研,可以在此代码基础上二次开发,进行修改、扩展,创造出属于自己的独特应用。 欢迎下载使用优质资源!欢迎借鉴使用,并欢迎学习交,共同探索编程的无穷魅力! 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip
提供的源码资源涵盖了安卓应用、小程序、Python应用和Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些源码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,源码中配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 这些源码资源特别适合大学生群体。无论你是计算机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资源都能为你提供宝贵的学习和实践机会。通过学习和运行这些源码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些源码资源进行课程实践、课外项目或毕业设计。通过分析和运行源码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程中,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保源码资源的可运行性和易用性,特别注意了以下几点:首先,每份源码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,源码中的注释和文档都非常完善,方便用户快速上手和理解代码;最后,我会定期更新这些源码资源,以适应各平台技术的最新发展和市场需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值