传统的生成ID的方法有以下几个:
- Java的UUID
- mysql的自增主键
- 利用Redis的INCR
以上方法都存在一定的问题。
-
UUID生成的是以下一串36位的16进制数
6d62ff8c-66d3-43e1-8009-44fec60d3b30
但是用UUID当主键的话存在一定问题,首先,它是无序的,因为mysql主键都会自动生成唯一索引,如果主键无序的话,插入一条数据维护索引的代价会很高,造成插入数据的性能降低。其次,UUID的长度过长,mysql官方推荐主键的长度越短越好,显然,36位的UUID不满足条件。 -
如果使用mysql的自增主键,分布式环境下如果并发量过高,会导致mysql服务器压力过大,为了防止MySQL崩溃,这时候就需要搭建MySQL集群,这时候就需要去设置步长,这样做的成本过高。
-
因为Redis是单线程的,天生满足原子性,可以用Redis的INCR去生成唯一ID来获取更高的吞吐量。但是这样也存在问题,和mysql一样,在集群环境下,需要设置不同的增长补偿,而且redis还涉及到key的过期时间,这样去维护一个Redis集群成本是很高的。
而现在分布式系统最常用的生成全局唯一ID的方法是雪花算法snowFlake。
雪花算法生成的结果是一位64bit的整数,为一个long类型(转换成字符串最多为19位)
雪花算法结构图如下
-
从左到右,第一位为符号位,0表示正,1表示符,不用。
-
时间戳(毫秒转化为年):2^41/(3652460601000)=69.73年。说明雪花算法可表示的范围为69年(从1970年开始),说明雪花算法能用到2039年。
-
12bit-序列号:表示每个机房的每个机器每毫秒可以产生2^12-1(4095)个不同的ID序号
雪花算法生成的ID整个分布式系统不会重复(因为有workerId和datacenterId)
由上可见用雪花算法生成的ID既是全局唯一的,又是递增的,又不需要任何维护成本,所以雪花算法相比之下是最好生成全局唯一ID的方法。
雪花算法Java源码如下:
public class SnowFlake {
/**
* 起始的时间戳
*/
private final static long START_STMP = 1480166465631L;
/**
* 每一部分占用的位数
*/
private final static long SEQUENCE_BIT = 12; //序列号占用的位数
private final static long MACHINE_BIT = 5; //机器标识占用的位数
private final static long DATACENTER_BIT = 5;//数据中心占用的位数
/**
* 每一部分的最大值
*/
private final static long MAX_DATACENTER_NUM = -1L ^ (-1L << DATACENTER_BIT);
private final static long MAX_MACHINE_NUM = -1L ^ (-1L << MACHINE_BIT);
private final static long MAX_SEQUENCE = -1L ^ (-1L << SEQUENCE_BIT);
/**
* 每一部分向左的位移
*/
private final static long MACHINE_LEFT = SEQUENCE_BIT;
private final static long DATACENTER_LEFT = SEQUENCE_BIT + MACHINE_BIT;
private final static long TIMESTMP_LEFT = DATACENTER_LEFT + DATACENTER_BIT;
private long datacenterId; //数据中心
private long machineId; //机器标识
private long sequence = 0L; //序列号
private long lastStmp = -1L;//上一次时间戳
public SnowFlake(long datacenterId, long machineId) {
if (datacenterId > MAX_DATACENTER_NUM || datacenterId < 0) {
throw new IllegalArgumentException("datacenterId can't be greater than MAX_DATACENTER_NUM or less than 0");
}
if (machineId > MAX_MACHINE_NUM || machineId < 0) {
throw new IllegalArgumentException("machineId can't be greater than MAX_MACHINE_NUM or less than 0");
}
this.datacenterId = datacenterId;
this.machineId = machineId;
}
/**
* 产生下一个ID
*
* @return
*/
public synchronized long nextId() {
long currStmp = getNewstmp();
if (currStmp < lastStmp) {
throw new RuntimeException("Clock moved backwards. Refusing to generate id");
}
if (currStmp == lastStmp) {
//相同毫秒内,序列号自增
sequence = (sequence + 1) & MAX_SEQUENCE;
//同一毫秒的序列数已经达到最大
if (sequence == 0L) {
currStmp = getNextMill();
}
} else {
//不同毫秒内,序列号置为0
sequence = 0L;
}
lastStmp = currStmp;
return (currStmp - START_STMP) << TIMESTMP_LEFT //时间戳部分
| datacenterId << DATACENTER_LEFT //数据中心部分
| machineId << MACHINE_LEFT //机器标识部分
| sequence; //序列号部分
}
private long getNextMill() {
long mill = getNewstmp();
while (mill <= lastStmp) {
mill = getNewstmp();
}
return mill;
}
private long getNewstmp() {
return System.currentTimeMillis();
}
public static void main(String[] args) {
//SnowFlakeUtil util=new SnowFlakeUtil();
SnowFlake snowFlake=new SnowFlake(0, 0);
for (int i = 0; i < 10; i++) {
System.out.println(snowFlake.nextId());
}
}
}
springboot整合snakeFlake。这里推荐大家一个很好用的工具包hutool
Hutool是一个Java工具包类库,对文件、流、加密解密、转码、正则、线程、XML等JDK方法进行封装,组成各种Util工具类
hutool官网
引入一下依赖
<dependency>
<groupId>cn.hutool</groupId>
<artifactId>hutool-all</artifactId>
<version>5.2.5</version>
</dependency>
整合之后的SnowFlakeUtil类
@Component
public class SnowFlakeUtil {
private long workerId=0L;
private long datacenterId=1L;
private Snowflake snowflake=IdUtil.createSnowflake(workerId, datacenterId);
@PostConstruct
public void init(){
try{
workerId=NetUtil.ipv4ToLong(NetUtil.getLocalhostStr());
}catch(Exception e){
workerId=NetUtil.getLocalhostStr().hashCode();
}
}
public synchronized long snowflakeId(long workerId,long datacenterId){
Snowflake snowflake=IdUtil.createSnowflake(workerId, datacenterId);
return snowflake.nextId();
}
public synchronized long snowflakeId(){
return snowflake.nextId();
}
}