最近忙着FastCFS v1.2.0的研发工作,主要对数据恢复和master任命机制做了改进,修复了5个稳定性bug,FastCFS的可靠性和稳定性上了一个新台阶。v1.2.0的改进工作和数据一致性密切相关,本文将介绍FastCFS采用的数据一致性模型及基础结构。
说到数据一致性,大家会想到分布式系统必须符合CAP理论:一个分布式系统,不可能完全满足CAP,只能做到其中的两个,即 CA、AP或CP。
FastCFS的目标是支持跑数据库,保证数据一致性是基本要求;保证可用性也是分布式系统的一个基本要求,因此FastCFS选择全力做到 CA,弱化P但不是放弃P。严重的网络分区会破坏数据一致性和系统可用性,通常需要人工介入处理异常数据。FastCFS有数据校验和脑裂修复机制,如果短暂的网络分区没有导致数据不一致的话,FastCFS完全可以自愈。FastCFS的leader和master不是基于中心节点,而是以服务器分组为单元自洽的。由此可见FastCFS在架构和实现机制上采用分而治之的局部化做法,最大程度地规避了发生网络分区的风险。
FastCFS对数据分组采用master/slave结构,对于服务器分组采用leader/follower结构。细心的朋友会有这样的困惑:FastCFS居然有leader和master两种角色,只要其中一种不就可以了吗?二者都是大家所熟知的概念,我相信业界一定有leader + master的做法,但将二者并存于一组服务器,并且以原生方式实现