上文:c/c++,go语言Linux服务器开发高级架构师进阶之路
之前给大家分享了一篇架构师进阶之路的文章以及视频分享,今天给大家分享的文章即Linux服务器开发架构师知识点解析,希望可以帮助到大家。
另大家有需要c/c++ ,go Linux服务器开发高级架构师学习视频资料的可以后台私信【架构】获取
- 本文介绍MySQL与Redis缓存的同步的两种方案
- 方案1:通过MySQL自动同步刷新Redis,MySQL触发器+UDF函数实现方案
- 2:解析MySQL的binlog实现,将数据库中的数据同步到Redis
一、方案1(UDF)
- 场景分析:当我们对MySQL数据库进行数据操作时,同时将相应的数据同步到Redis中,同步到Redis之后,查询的操作就从Redis中查找
- 过程大致如下:
- 在MySQL中对要操作的数据设置触发器Trigger,监听操作
- 客户端(NodeServer)向MySQL中写入数据时,触发器会被触发,触发之后调用MySQL的UDF函数
- UDF函数可以把数据写入到Redis中,从而达到同步的效果
![66b8261e1fd362347e2516f4a840452e.png](https://i-blog.csdnimg.cn/blog_migrate/fe4af2f1c7e7b2bb1f5fd60724cc32f5.jpeg)
- 方案分析:
- 这种方案适合于读多写少,并且不存并发写的场景
- 因为MySQL触发器本身就会造成效率的降低,如果一个表经常被操作,这种方案显示是不合适的
演示案例:
下面是MySQL的表
![2d9597a407e0d6262060db5ed40601d4.png](https://i-blog.csdnimg.cn/blog_migrate/c53cc5fc1306c17ef980334b932dc3ea.jpeg)
下面是UDF的解析代码
![a8805dde4661579885e788388d2a63ca.png](https://i-blog.csdnimg.cn/blog_migrate/efd7b33124dca2bbd2cfe582bd7b01fe.jpeg)
定义对应的触发器
![13425318f677c09303c148802a3b94e3.png](https://i-blog.csdnimg.cn/blog_migrate/d0e2d037860606da13e8f1f18de302cc.jpeg)
![7ebc9f616a963b149251f57414679303.png](https://i-blog.csdnimg.cn/blog_migrate/c7e1e78f42efb0b92e80602fe3d88314.jpeg)
![ce7d59caaca51395d378d424b8b24f05.png](https://i-blog.csdnimg.cn/blog_migrate/64cf91ae2c95d4131295e7ab62e6f03f.jpeg)
二、方案2(解析binlog)
- 在介绍方案2之前我们先来介绍一下MySQL复制的原理,如下图所示:
- 主服务器操作数据,并将数据写入Bin log
- 从服务器调用I/O线程读取主服务器的Bin log,并且写入到自己的Relay log中,再调用SQL线程从Relay log中解析数据,从而同步到自己的数据库中
![8fa798be33cae290423ecd406ecfd588.png](https://i-blog.csdnimg.cn/blog_migrate/627530df599c323ca2be041461df282d.jpeg)
- 方案2就是:
- 上面MySQL的整个复制流程可以总结为一句话,那就是:从服务器读取主服务器Bin log中的数据,从而同步到自己的数据库中
- 我们方案2也是如此,就是在概念上把主服务器改为MySQL,把从服务器改为Redis而已(如下图所示),当MySQL中有数据写入时,我们就解析MySQL的Bin log,然后将解析出来的数据写入到Redis中,从而达到同步的效果
![6b5dfff76a668ac66409c1fa6e5d7c4c.png](https://i-blog.csdnimg.cn/blog_migrate/d66732a8a9b90279ea14a9a16b2ec97b.jpeg)
- 例如下面是一个云数据库实例分析:
- 云数据库与本地数据库是主从关系。云数据库作为主数据库主要提供写,本地数据库作为从数据库从主数据库中读取数据
- 本地数据库读取到数据之后,解析Bin log,然后将数据写入写入同步到Redis中,然后客户端从Redis读数据
![880a1ca3db3526ca073965180db5855e.png](https://i-blog.csdnimg.cn/blog_migrate/39e613c20e291b21846d5f661aa9d7a0.jpeg)
- 这个技术方案的难点就在于:如何解析MySQL的Bin Log。但是这需要对binlog文件以及MySQL有非常深入的理解,同时由于binlog存在Statement/Row/Mixedlevel多种形式,分析binlog实现同步的工作量是非常大的
Canal开源技术:
canal是阿里巴巴旗下的一款开源项目,纯Java开发。基于数据库增量日志解析,提供增量数据订阅&消费,目前主要支持了MySQL(也支持mariaDB)
开源参考地址有:https://github.com/liukelin/canal_mysql_nosql_sync
工作原理(模仿MySQL复制):
canal模拟mysql slave的交互协议,伪装自己为mysql slave,向mysql master发送dump协议
mysql master收到dump请求,开始推送binary log给slave(也就是canal)
canal解析binary log对象(原始为byte流)
![3428586778255038fe240eaf9595b26c.png](https://i-blog.csdnimg.cn/blog_migrate/990223f87ff9c8b4c883953de190bf4e.jpeg)
架构:
server代表一个canal运行实例,对应于一个jvm
instance对应于一个数据队列 (1个server对应1..n个instance)
instance模块:
eventParser (数据源接入,模拟slave协议和master进行交互,协议解析)
eventSink (Parser和Store连接器,进行数据过滤,加工,分发的工作)
eventStore (数据存储)
metaManager (增量订阅&消费信息管理器)
![38cb204440409b0f5a6d86c8bda28e29.png](https://i-blog.csdnimg.cn/blog_migrate/0782538237442be09b051ddcc31502a8.jpeg)
大致的解析过程如下:
parse解析MySQL的Bin log,然后将数据放入到sink中
sink对数据进行过滤,加工,分发
store从sink中读取解析好的数据存储起来
然后自己用设计代码将store中的数据同步写入Redis中就可以了
其中parse/sink是框架封装好的,我们做的是store的数据读取那一步
![0d40fefdf70a22d72d95635c19bc1b30.png](https://i-blog.csdnimg.cn/blog_migrate/f26933a7073a9579268695254d226a1f.jpeg)
更多关于Cancl可以百度搜索
下面是运行拓扑图
![4cff82c1bb10aa4215f1fb2984d90925.png](https://i-blog.csdnimg.cn/blog_migrate/8b1b78aa7454a9cf71f24a6da2a58c5a.jpeg)
MySQL表的同步,采用责任链模式,每张表对应一个Filter。例如zvsync中要用到的类设计如下:
![b1fce157cc61a692d2d3a8950e60ee63.png](https://i-blog.csdnimg.cn/blog_migrate/f3b4dac8bc67b43593a0bb65bedfbdd2.jpeg)
下面是具体化的zvsync中要用到的类,每当新增或者删除表时,直接进行增删就可以了
![1dde4a41f4c97eb8424a1878a4265fd7.png](https://i-blog.csdnimg.cn/blog_migrate/4a6a1dbc1b54e1fd70ff03d6fd6f89ea.jpeg)
三、附加
- 本文上面所介绍的都是从MySQL中同步到缓存中。但是在实际开发中可能有人会用下面的方案:
- 客户端有数据来了之后,先将其保存到Redis中,然后再同步到MySQL中
- 这种方案本身也是不安全/不可靠的,因此如果Redis存在短暂的宕机或失效,那么会丢失数据
![0f6d27949c6821e2637e332accc7e43d.png](https://i-blog.csdnimg.cn/blog_migrate/6594db7d68d1b568d0a93ed04e3ad07c.jpeg)