mysql pxc 使用_PXC使用介绍

99941-20160717120240592-1182259685.png

用户发起Commit,在收到Ok之前

集群每次发起一个动作,都会有一个唯一的编号 PXC独有的Global Trx Id 动作发起者: commit_cb其它节点多了一个动作: apply_cb 上面的这些动作,是通过那个端号交互的?4567

4568端口 IST 只是在节点下线,重启加入那一个时间有用4444 只会在新节点加入进来时起作用

pxc结构里面如果主节点写入过大apply_cb 时间会不会跟不上wsrep_slave_threads参数 解决apply_cb跟不上问题 配置成和CPU的个数相等或是1.5倍

当前节点commit_cb 后就可以返回了推过去之后,验证通过就行了可以返回客户端了

cb==commit block 提交数据块

SST和ISTState Snapshot Transfer(SST) 全量传输

Incremental state Transfer(IST)增量传输

每个节点都有一份独立的数据我们通过SST和IST说一下PXC的启动关闭流程当我们启动第一个节点, bootstrap-pxc 当前集群没有其它成员,你就是老大了。在第一个节点上可以把帐号初始化, 基本初始化,都搞定了。初始化的时间,随便那个节点都可以。其它节点再起来就是要加入进来的。 joining nodewsrep_cluster_address = gcomm://xxxx,,xxxx,xxx

你是新成员,你没有ID第一个节点 把自已备份一下(snapshot) 传给加入的新节点: SSTsocat.x86_64perl-IO_Socketnc

另一个节点是死的还是活的?这时两个节点会进行一个投票当第三个节点要加入的时间wsrep_cluster_address = gcomm://xxxx,,xxxx,xxx

99941-20160717120252904-1995276776.png

给贡献数据者Donor

新启动的节点-> open ->primary 4567 端口沟通joiner 我是新加入的joined 需要有一个人能给他提供一份全量的数据SST 发生的者的身上就是donor

donor 需要发起innobackupex 传输SST有几种方法:1. xtrabackup2. mysqldump mysql库也会传输3. rsync 对innodb整个库进行锁定来拷贝,保证一致性

如果node3 需要停一下机reboot , 加点内存,换个硬盘的node3 希望说能不能把增量传给我ISTGalera 2.X之前只能传全量node3能停多长时间,可以传ISTgcache.size wsrep_provider_options 默认128Mwsrep_provider_options="gcache.size=1G"gid : 1000 1200 > gcache.size .id gralea.cache

gcache.size到底分配多大合适呢1个小时 可以算一个小时的binlog量大概多大一般预留2-3小时,gcache.size大小2-4G

假设我们三个节点都关闭了,会发生什么呢发现一个可怕的事情

全部传SST没有做到最后关闭的节点,最先启动建议滚动关闭1. node1 先闭 修复完毕加回来了2. 再关node2 ,修复完毕加回来了3. 再关node3 ,修复完毕加回来了原则要保持Group里最少一个成员活着

滚动升级,先升级集群里的一个节点,再下一个节点再下一个节点

Gcache 数据没了。数据库关闭之后,会保存一个last Txidnode1 1000node2 1001node3 1002

node1 是整个集群的老大其它节点加进来发现数据不一致,以老大为准会有丢数据风险

所有节点全关闭了第一个用bootstrap-pxc启动的节点,他就为自已是老大了第二节点加来了,还在老大的关系吗兄弟两个是平起平座的面临一个丢数据问题mysqld —wsrep_recover —bootstrap-pxc 使用mysqld —wsrep_recover参数启动mysqld—wsrep_recoverWhen server is started with this variable, it will parse Global Transaction ID (GTID) from log, and if the GTID is found, assign it as initial position for actual server start. This option is used to recover GTID.

[mysqld_safe]wsrep_recover=1wsrep_recover=on

99941-20160717120307639-1582055034.png

node3 1002 node3 bootstrap-pxc gcache 最小的GTID是多少呢1002

node2加入 : 1001 SSTnode1加入 一样的传输 SST

怎么避免gcache丢失这件事情呢1. 所有的节点中最少有一个在线,进行滚动重启2. 利用主从的概念,把一个从节点转化成PXC里的节点

PXC集群的脑裂问题输入任何命令都显示unkown command

推荐是三个节点假设变成了两个节点突然出现了两集群之间连不通了模拟iptables Start 4567端口连不通了。kill -9 mysqld

忽略脑裂的命令SET GLOBAL wsrep_provider_options="pc.ignore_sb=true";

PXC使用中的特点 和注意事项PXC里任何节点都可以读写他的ID增长顺序是什么样的show global variables like "%auto%";offset 是节点数起始值有啥区别吗1,2,3node1, 1 node2: 2 node3: 3 offset: 31,4, 7,10 node1 5, 8, 11 … node26, 9, 12 …. node3 跟双主一样,通过控制步长和起始值来避免自增主键冲突

update tb set col3=col3-100 where id=10;native 处理 node1,node2, node3 理论可以同时处理这个SQL

在PXC里同时更新到同一行记录是可能存在这个风险的乐观并发控制只锁本地的行记录,不锁别人的,不锁全局,本地处理完再发给别人,那么就有可能大家同时更新同一行记录Error: 1213 SQLSTATE: 40001考虑单节点写入

DDL操作在某成员上做DDL操作,atler table 操作时间可以长一点。会把整个集群锁着ptcc做一个大表来模拟metadata lock 搞定在PXC结里,不可能不做表结构变更呀解决:使用pt-online-schema-change

开发建个表告诉你数据不能复制MyISAM引擎不能被复制,PXC只支持Innodb mysql库全是MyISAM人家咋复制呢DCL语句 Create user, drop user, grant ,revoke

pxc结构里面每个表必须有主键如果没有主建,有可能会造成集群中每个节点的Data page里的数据不一样node1 data page 6 rows node2 data page : 7rows select * from tb limit 100;

不支持表级的锁 lock /unlock tables

pxc里只能把slow log ,query log 放到File里,不能放到table里

不支持XA事务

三个节点。假设其中有一个节点 SSD,其它节点是HDD,整个集群的硬件配置要一样木桶理论 :一个木桶打多少水以木桶里最短的那块木板决定,水太多会溢出

整个集群数最好为3,最多是8个其中一个节点死掉了,还有2个节点发现整个集群还能活

writeSet最大是多呢wsrep_max_ws_rowswsrep_max_ws_size 不要超过16KB

pxc的监控clustercheck

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值