SnowFlake算法原理介绍
在分布式系统中会将一个业务的系统部署到多台服务器上,用户随机访问其中一台,而之所以引入分布式系统就是为了让整个系统能够承载更大的访问量。诸如订单号这些我们需要它是全局唯一的,同时我们基本上都会将它作为查询条件;出于系统安全考虑不应当让其它人轻易的就猜出我们的订单号,同时也要防止公司的竞争对手直接通过订单号猜测出公司业务体量;为了保证系统的快速响应那么生成算法不能太耗时。而雪花算法正好解决了这些问题。
SnowFlake 算法(雪花算法), 是Twitter开源的分布式id生成算法。其核心思想就是: 使用一个64 bit的long型的数字作为全局唯一id。它的结构如下:
下面我们来对每一部分进一步的分析:
- 符号标识位(1位):计算机中为了区分负数(1)和正数(0),设计者将第一位做为符号位,ID通常使用正数,因此最高位固定为0;
- 41位时间截(毫秒),这个是使用 当前时间 减去 开始时间 得到的值;因此一旦我们的算法投入使用,那么程序中设置的开始时间就不能再去随意更改了,否则将可能出现重复的id值;
由于是基于时间来实现的且只有41位,由此可以计算出该算法只能使用70年左右:(2^41)/(1000*60*60*24*365) = 69.7 年
; - 10位机器ID:共计1024个节点,通常将其分为2部分:机房ID(dataCenterId) 和 机器ID(workerId);
- 12 位序列号:毫秒内的计数,共计4098个;简单来说就是每毫秒内从0开始计算得到值;
最终SnowFlake算法总结如下:整体上按照时间自增排序,并且整个分布式系统内不会产生ID 碰撞(由机房ID和机器ID作区分),并且效率较高。最多支持1024台机器,每台机器每毫秒能够生成最多4096个ID,整个集群理论上每秒可以生成 1024 * 1000 * 4096 = 42 亿个ID。
这里不要觉得每毫秒4098个ID少了,我们计算一下每台机器理论上每秒可以支持 4096*1000 = 400万左右;要知道天猫双11那么大的订单量每秒也才50万笔;因此是完全够用的。
算法实现
我们在上面已经了解了SnowFlake的算法结构,下面是Java版本的实现。注意我们在实现该算法时,不一定要死死的按照上面的来实现,可以根据自身业务情况进行定制化;比如说机器ID,对于大部分的小项目来说根本不会分啥机房,因此我们完全可以根据服务器IP来弄;同时Twitter公布的算法中最终生成的id长度为15,但是还是根据自身业务情况进行调整。比如标准的算法只支持使用70年左右,但是我们可以通过扩展长度来增加年限。
public class SnowFlakeIdWorker {
/**
* 开始时间戳,单位毫秒;这里是2021-06-01
*/
private static final long TW_EPOCH = 1622476800000L;
/**
* 机器 ID 所占的位数
*/
private static final long WORKER_ID_BITS = 5L;
/**
* 数据标识 ID 所占的位数
*/
private static final long DATA_CENTER_ID_BITS = 5L;
/**
* 支持的最大机器ID,最大为31
*
* PS. Twitter的源码是 -1L ^ (-1L << workerIdBits);这里最后和-1进行异或运算,由于-1的二进制补码的特殊性,就相当于进行取反。
*/
private static final long MAX_WORKER_ID = ~(-1L << WORKER_ID_BITS);
/**
* 支持的最大机房ID,最大为31
*/
private static final long MAX_DATA_CENTER_ID = ~(-1L << DATA_CENTER_ID_BITS);
/**
* 序列在 ID 中占的位数
*/
private