2009 年 12 月,IBM 在DB2 V9.8这个版本中首次推出了DB2 pureScale特性。这个特性利用了z/OS大型机上经过验证的DB2数据库集群技术,在开放平台上实现了共享磁盘(Share Disk)架构,下面具体谈谈。
DB2 pureScale的三层架构
从架构上看,DB2 pureScacle分为三层,即数据库集群、集群服务和GPFS文件系统。
第一,DB2 pureScale数据库集群由成员和Coupling Facility节点(简称为CF)组成。成员代表一个DB2处理引擎,在系统负载变化时可以动态的添加或删除成员,对于活跃成员数量的修改不影响客户端的应用。 CF节点采用集中锁机制以保证数据的一致性,另外,CF节点也用来管理DB2数据页的全局缓存。在实际应用中,应配置两个CF节点,一主一从,这样可用避免单点故障。
成员与CF节点之间需要进行通信。为了尽可能地提高通信效率,DB2 pureScale使用了 RDMA(Remote Direct Memory Access)技术。RDMA 支持直接读写另一台计算机的内存,并且不需要占用目标计算机的CPU资源。RDMA技术结合超高速网络,如InfiniBand,使得DB2 pureScale能高效地伸缩。
第二,DB2集群服务整合在DB2 pureScale中,以支持错误检测和自动恢复。这些技术包括IBM Tivoli Systems Automation for Multiplatforms (TSAMP)和Reliable Scalable Cluster Technology (RSCT)。谈到RSCT技术,读者知道,集群中各个节点通过心跳机制来通报彼此的情况,例如,集群中只有2个节点,某一时刻节点1的心跳出现故障,但是节点1还在运行,节点2也在运行,但是接收不到节点1的心跳了,于是集群就分裂为两个小的集群了,这种场景被称为脑裂(Split-Brain)。那么出现了这种情况,哪个节点来接管整个集群吗?通常需要借助仲裁盘(Tiebreaker disk)或者仲裁IP,即由仲裁者来决定由哪个节点来接管。上述脑裂处理的细节都通过RSCT技术被自动整合到DB2 pureScale中了。
第三,关于GPFS文件系统。DB2 pureScale各个节点通过GPFS文件系统访问共享存储。DB2 pureScale 强烈推荐使用支持“SCSI-3 永久保留”(Persistent Reservations)的存储设备,尽管 DB2 pureScale 也可以支持非 SCSI-3 协议的存储,但是发生故障时,IO 屏蔽的时间将大为延长,这将严重影响成员宕机时数据库受影响数据的恢复时间。为了方便用户,DB2 提供GPFS文件系统的安装和配置。
来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/25714482/viewspace-748237/,如需转载,请注明出处,否则将追究法律责任。
转载于:http://blog.itpub.net/25714482/viewspace-748237/