分布式一致性Hash算法实现java版

1 篇文章 0 订阅

<img src="http://h.hiphotos.baidu.com/baike/w%3D268/sign=bd2a4a4eb3de9c82a665fe89548080d2/4610b912c8fcc3ceec8f67449245d688d43f207d.jpg" alt="一致性哈希" style="font-family: Arial, Helvetica, sans-serif; background-color: rgb(255, 255, 255);" />




使用Redis作为缓存服务器的,刚开始的时候会满足需要,随着项目的增大缓存数据的增多就会查询和插入更慢这时就要考虑Redis集群方案了

使用Redis分布式要保证数据都能能够平均的缓存到每一台机器,首先想到的做法是对数据进行分片,因为Redis是key-value存储的,首先想到的是Hash分片,可能的做法是对key进行哈希运算,得到一个long值对分布式的数量取模会得到一个一个对应数据库的一个映射,没有读取就可以定位到这台数据库,那么速度但然会提升了。

但是取模的hash算法是有问题的如果集群数量不变的话没有什么问题,一旦增加一台机器或者一台机器挂掉,导致机器数量变化,就会导致计算的出的数据库映射乱掉,不能正确存取数据了。

因为这个问题引入我们说的一致性哈希算法,这个哈希算法具有的特征

1.均衡性:也有人把它定义为平衡性,是指哈希的结果能够尽可能分布到所有的节点中去,这样可以有效的利用每个节点上的资源。

2.单调性:对于单调性有很多翻译让我非常的不解,而我想要的是当节点数量变化时哈希的结果应尽可能的保护已分配的内容不会被重新分派到新的节点。

3.分散性和负载:这两个其实是差不多的意思,就是要求一致性哈希算法对 key 哈希应尽可能的避免重复。

一致性哈希就数据结构是创建一个排序的环形数据结构,有许多个区域,先让每一台服务器都分布环上,取每一个服务器的特效做哈希运行,得到的值放进环中,进行排序这样就能根据哈希特征找到对应的真是服务器,能够让把服务器平均的分布到环上。



第一个特征均衡性:就是尽量的让数据平均的分部到每一个服务器,不让某台机器压力特别打,或者干脆没活干,因为这个原因,我们的每一个服务器都添加几个虚拟服务器,比如真是服务器叫node1那么第一个服务器的虚拟服务器就叫node1-1,node1-2...,根据这些特征进行哈希运算也分布到环中,这样就能把服务器平均的分布到环中。


第二个特征单调性:因为服务器都在环中,数据的key进行哈希运算得到一个值,跟环中的服务器的哈希值进行比较,取离当前值最接近的哈希值对象的服务器,这样就是获取服务器的原理了,我们是做了一个偷懒的工作,服务器哈希进行排序,以顺时针方式得到一个刚好大于key哈希的服务器。
单调性是在不管添加节点还是删除节点,原来对应的服务器不变,因为这个环很大,服务器是零星分布的,这样增加或者删除一个节点只有受影响的都是当前节点,但是key对应的数据库是不变的,也不能说不变,是把变化变得尽可能的小。

第三个特征分散性和负载:指服务器在环中尽可能的分散,尽可能的让数据平均分布到不同的服务器,我们就是使用虚拟节点的方式解决的。



把代码放上来

1.Node对象,存放服务器的一些特征
重写toString()方法,使用这些特征生成服务器哈希码
public class Node {
	// 节点名称
	private String name;
	// 节点IP
	private String ip;
	// 节点端口号
	private int port;
	// 节点密码
	private String password;


	public Node(String name, String ip, int port, String password) {
		this.name = name;
		this.ip = ip;
		this.port = port;
		this.password = password;
	}


	public String getName() {
		return name;
	}


	public void setName(String name) {
		this.name = name;
	}


	public String getIp() {
		return ip;
	}


	public void setIp(String ip) {
		this.ip = ip;
	}


	public int getPort() {
		return port;
	}


	public void setPort(int port) {
		this.port = port;
	}


	public String getPassword() {
		return password;
	}


	public void setPassword(String password) {
		this.password = password;
	}


	@Override
	public String toString() {
		return "Node [name=" + name + ", ip=" + ip + ", port=" + port
				+ ", password=" + password + "]";
	}

哈希算法实现,使用的是MurmurHash算法,是非加密的哈希算法速度比crc,md5更快


public final class MurmurHash {

	public MurmurHash() {

	}

	private byte[] toBytesWithoutEncoding(String str) {

		int len = str.length();
		int pos = 0;
		byte[] buf = new byte[len << 1];
		for (int i = 0; i < len; i++) {

			char c = str.charAt(i);
			buf[pos++] = (byte) (c & 0xFF);
			buf[pos++] = (byte) (c >> 8);
		}
		return buf;
	}

	public int hashcode(String str) {
		byte[] bytes = toBytesWithoutEncoding(str);
		return hash32(bytes, bytes.length);
	}

	/**
	 *  * Generates 32 bit hash from byte array of the given length and  * seed.
	 *  *  * @param data byte array to hash  * @param length length of the array
	 * to hash  * @param seed initial seed value  * @return 32 bit hash of the
	 * given array  
	 */
	public int hash32(final byte[] data, int length, int seed) {
		// 'm' and 'r' are mixing constants generated offline.
		// They're not really 'magic', they just happen to work well.
		final int m = 0x5bd1e995;
		final int r = 24;
		// Initialize the hash to a random value
		int h = seed ^ length;
		int length4 = length / 4;
		for (int i = 0; i < length4; i++) {
			final int i4 = i * 4;
			int k = (data[i4 + 0] & 0xff) + ((data[i4 + 1] & 0xff) << 8)
					+ ((data[i4 + 2] & 0xff) << 16)
					+ ((data[i4 + 3] & 0xff) << 24);
			k *= m;
			k ^= k >>> r;
			k *= m;
			h *= m;
			h ^= k;
		}
		// Handle the last few bytes of the input array
		switch (length % 4) {
		case 3:
			h ^= (data[(length & ~3) + 2] & 0xff) << 16;
		case 2:
			h ^= (data[(length & ~3) + 1] & 0xff) << 8;
		case 1:
			h ^= (data[length & ~3] & 0xff);
			h *= m;
		}
		h ^= h >>> 13;
		h *= m;
		h ^= h >>> 15;
		return h;
	}

	/**
	 *  * Generates 32 bit hash from byte array with default seed value.  *  * @param
	 * data byte array to hash  * @param length length of the array to hash  * @return
	 * 32 bit hash of the given array  
	 */
	public int hash32(final byte[] data, int length) {
		return hash32(data, length, 0x9747b28c);
	}
	
	public int hash32(final String data) {
		byte[] bytes = toBytesWithoutEncoding(data);
		return hash32(bytes, bytes.length, 0x9747b28c);
	}

	/**
	 *  * Generates 64 bit hash from byte array of the given length and seed.  *
	 *  * @param data byte array to hash  * @param length length of the array to
	 * hash  * @param seed initial seed value  * @return 64 bit hash of the
	 * given array  
	 */
	public long hash64(final byte[] data, int length, int seed) {
		final long m = 0xc6a4a7935bd1e995L;
		final int r = 47;
		long h = (seed & 0xffffffffl) ^ (length * m);
		int length8 = length / 8;
		for (int i = 0; i < length8; i++) {
			final int i8 = i * 8;
			long k = ((long) data[i8 + 0] & 0xff)
					+ (((long) data[i8 + 1] & 0xff) << 8)
					+ (((long) data[i8 + 2] & 0xff) << 16)
					+ (((long) data[i8 + 3] & 0xff) << 24)
					+ (((long) data[i8 + 4] & 0xff) << 32)
					+ (((long) data[i8 + 5] & 0xff) << 40)
					+ (((long) data[i8 + 6] & 0xff) << 48)
					+ (((long) data[i8 + 7] & 0xff) << 56);
			k *= m;
			k ^= k >>> r;
			k *= m;
			h ^= k;
			h *= m;
		}
		switch (length % 8) {
		case 7:
			h ^= (long) (data[(length & ~7) + 6] & 0xff) << 48;
		case 6:
			h ^= (long) (data[(length & ~7) + 5] & 0xff) << 40;
		case 5:
			h ^= (long) (data[(length & ~7) + 4] & 0xff) << 32;
		case 4:
			h ^= (long) (data[(length & ~7) + 3] & 0xff) << 24;
		case 3:
			h ^= (long) (data[(length & ~7) + 2] & 0xff) << 16;
		case 2:
			h ^= (long) (data[(length & ~7) + 1] & 0xff) << 8;
		case 1:
			h ^= (long) (data[length & ~7] & 0xff);
			h *= m;
		}
		;
		h ^= h >>> r;
		h *= m;
		h ^= h >>> r;
		return h;
	}

	/**
	 *  * Generates 64 bit hash from byte array with default seed value.  *  * @param
	 * data byte array to hash  * @param length length of the array to hash  * @return
	 * 64 bit hash of the given string  
	 */
	public long hash64(final byte[] data, int length) {
		return hash64(data, length, 0xe17a1465);
	}
	
	
	public long hash64(final String data) {
		byte[] bytes = toBytesWithoutEncoding(data);
		return hash64(bytes, bytes.length);
	}
}

一致性哈希ConsistentHash的实现
public class ConsistentHash {
	/**
	 * 虚拟节点个数 用于复制真是节点进行负载均衡
	 */
	private final int virtualNodeNum;
	//环形SortMap 用于存放节点并排序
	private SortedMap<Long,Node> circleMap = new TreeMap<Long,Node>();
	
	 /**
     * 构造,使用Java默认的Hash算法
     * @param virtualNodeNum 虚拟化节点数量 复制的节点个数,增加每个节点的复制节点有利于负载均衡
     * @param nodes 节点对象
     */
	public ConsistentHash(int virtualNodeNum,Collection<Node> nodes){
		this.virtualNodeNum = virtualNodeNum;
		for(Node node:nodes){
			addNode(node);
		}
	}
	
	 /**
     * 构造
     * @param virtualNodeNum 虚拟化节点数量 复制的节点个数,增加每个节点的复制节点有利于负载均衡
     * @param nodes 节点对象
     */
	public ConsistentHash(int virtualNodeNum,Node node){
		this.virtualNodeNum = virtualNodeNum;
		addNode(node);
	}
	
	 /**
     * 构造
     * @param virtualNodeNum 虚拟化节点数量
     * 
     */
	public ConsistentHash(int virtualNodeNum){
		this.virtualNodeNum = virtualNodeNum;
	}
	
	 /**
     * 增加节点<br>
     * 每增加一个节点,就会在闭环上增加给定复制节点数<br>
     * 例如复制节点数是2,则每调用此方法一次,增加两个虚拟节点,这两个节点指向同一Node
     * 由于hash算法会调用node的toString方法,故按照toString去重
     * @param node 节点对象
     */
    public void addNode(Node node) {
        for (int i = 0; i < virtualNodeNum; i++) {
        	circleMap.put(HashUtils.murMurHash(node.toString() + i), node);
        }
    }
    
    
    /**
     * 移除节点的同时移除相应的虚拟节点
     * @param node 节点对象
     */
    public void remove(Node node) {
        for (int i = 0; i < virtualNodeNum; i++) {
        	circleMap.remove(HashUtils.murMurHash(node.toString() + i));
        }
    }
    
    /**
     * 获得一个最近的顺时针节点
     * @param key 为给定键取Hash,取得顺时针方向上最近的一个虚拟节点对应的实际节点
     * @return 节点对象
     */
    public Node get(Object key) {
        if (circleMap.isEmpty()) {
            return null;
        }
        long hash = HashUtils.murMurHash(RText.toString(key));
        if (!circleMap.containsKey(hash)) {
            SortedMap<Long, Node> tailMap = circleMap.tailMap(hash); //返回此映射的部分视图,其键大于等于 hash
            hash = tailMap.isEmpty() ? circleMap.firstKey() : tailMap.firstKey();
        }
        //正好命中
        return circleMap.get(hash);
    }
}


这些是自己的实现,jedis 已经对分布式一致性哈希算法进行了封装
Jedis 添加服务器

JedisShardInfo jedisShardInfo1 = new JedisShardInfo(  
                bundle.getString("redis1.ip"), Integer.valueOf(bundle                       .getString("redis.port")));  
JedisShardInfo jedisShardInfo2 = new JedisShardInfo(  
                bundle.getString("redis2.ip"), Integer.valueOf(bundle                       .getString("redis.port")));  
  
List<JedisShardInfo> list = new LinkedList<JedisShardInfo>();  
list.add(jedisShardInfo1);  
list.add(jedisShardInfo2); 
初始化 ShardedJedisPool 代替 JedisPool:
ShardedJedisPool pool = new ShardedJedisPool(config, list); 
测试
public void test() {  
  
    // 从池中获取一个Jedis对象  
    ShardedJedis jedis = pool.getResource();  
    String keys = "name";  
    String value = "snowolf";  
    // 删数据  
    jedis.del(keys);  
    // 存数据  
    jedis.set(keys, value);  
    // 取数据  
    String v = jedis.get(keys);  
  
    System.out.println(v);  
  
    // 释放对象池  
    pool.returnResource(jedis);  
  
    assertEquals(value, v);  
}  

这种分布式解决方案能解决只能最大程度的解决数据分布问题,但是还是会引起小范围的数据分布问题,增加节点的时候,当原来对应这台服务器的数据可能就会对应新加的数据库,但是读取的时候就会出问题了,会引起小范围的数据读取不到。
解决方案
1.Redis 的主从同步,同步下数据,这个可以参考资料。
2.使用java进行数据的重定向,使用定时任务对数据库进行扫描,得到所有的key进行一次哈希运算,如果是本服务器的数据不处理,如果运算的结果是别的服务器就对这条数据进行迁移,来保持数据的一致性。

好了这个一致性哈希算法就算完了,欢迎点评




  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值