HashMap的底层原理剖析

hashmap的底层原理剖析

今天来讲一下,HashMap的底层原理,在网上也能找到很多博客,其实写的都比较的笼统

1.概述

HashMap是基于Map接口实现,是以Key-Value的方式存储,并且允许使用null(空) 建和null(空)值,因为key不允许重复,因此只能有一个键为null(空),在一个就是HashMap不能保证放入元素的顺序,因为它是无序的,所以放入进去的顺序是不相同的,最后就是HashMap是线程不安全的

(1).数据结构分析
  HashMap的继承关系,继承了AbstractMap,实现了接口。
  给容器设置了(重点) 初始化容量  和  最大容量 ,并且设置了加载因子
	public class HashMapSource<K,V> extends AbstractMap<K,V>
    implements Map<K,V>,Cloneable , Serializable {
    	 //表示默认当前容量为16
      	 static final DEFAULT_INITIAL_CAPACITY = 1 << 4; 
      	 //表示最大容量为1073741824
         static final int MAXIMUM_CAPACITY = 1 << 30;
         //负载因子,当容量达到75%时就进行扩容操作
    	 static final float DEFAULT_LOAD_FACTOR = 0.75f;
    	 //初始化的默认数组
    	 static final Entry<?,?>[] EMPTY_TABLE = {};
		 //HashMap中元素的数量
		 transient int size;
		 //判断是否需要调整HashMap的容量
		 int threshold;
(2).Entry结构分析

在这里插入图片描述
根据上图所画来讲,我们可以发现数据结构是以数组+链表形式组成的。Entry 是 HashMap的内部类, 维护着一个Key -Value 映射关系,还有next引用(指向当前table 位置的链表),hash值 用来确定每一个Entry链表在 table 中的位置。
下边是HashMap的源码:

static class Entry<K,V> implements Map.Entry<K,V> {
        final K key;
        V value;
        Entry<K,V> next;
        int hash;
        /**
         * Creates new entry.
         */
        Entry(int h, K k, V v, Entry<K,V> n) {
            value = v;
            next = n;
            key = k;
            hash = h;
        }
(3).Hashmap的构造函数
	//构造方法,指定初始容量和负载因子
	public HashMap(int initialCapacity, float loadFactor) {
        //容量不能小于0
        if (initialCapacity < 0)
            throw new IllegalArgumentException("Illegal initial capacity: " +                                           initialCapacity);
        //容量不能超出最大容量
        if (initialCapacity > MAXIMUM_CAPACITY)
            initialCapacity = MAXIMUM_CAPACITY;
        //加载因子不能<=0 或者 为非数字
        if (loadFactor <= 0 || Float.isNaN(loadFactor))
            throw new IllegalArgumentException("Illegal load factor: " +
                                               loadFactor);

        //计算出大于初始容量的最小 2的n次方作为哈希表table的长度,下面会说明为什么要这样
        int capacity = 1;
        while (capacity < initialCapacity)
            capacity <<= 1;

        this.loadFactor = loadFactor;
        //设置HashMap的容量极限,当HashMap的容量达到该极限时就会进行扩容操作
        threshold = (int)Math.min(capacity * loadFactor, MAXIMUM_CAPACITY + 1);
        //创建Entry数组
        table = new Entry[capacity];
        useAltHashing = sun.misc.VM.isBooted() &&
                (capacity >= Holder.ALTERNATIVE_HASHING_THRESHOLD);
        init();
    }
 这段代码代表的意思是:
   	 (1)对传入的容量和加载因子进行判断处理。
     (2)设置hashMap的容量极限,当容量达到极限时就会进行 扩容操作。
     (3)计算出大于初始容量的最小 2的n次方作为哈希表table的长度,然后用该长度创建Entry数组。
(4).HashMap中的put操作

put()方法的执行过程如下所示:
在这里插入图片描述
我们结合上面的图来看put的相关操作,我以java1.7为例进行讲解。

   public V put(K key, V value) {
   		if (table == EMPTY_TABLE) { //是否初始化
   	            inflateTable(threshold);
   	        }
   		        //如果key为空的情况
   	        if (key == null)
   	            return putForNullKey(value);
   	        //计算key的hash值
   	        int hash = hash(key);
   	        //计算该hash值在table中的下标
   	        int i = indexFor(hash, table.length);
   	        //对table[i]存放的链表进行遍历
   	        for (Entry<K,V> e = table[i]; e != null; e = e.next) {
   	            Object k;
   	            //判断该条链上是否有hash值相同的(key相同)  
   	            //若存在相同,则直接覆盖value,返回旧value
   	            if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
   	                V oldValue = e.value;
   	                e.value = value;
   	                e.recordAccess(this);
   	                return oldValue;
   	            }
   	        }
   	
   	        //修改次数+1
   	        modCount++;
   	        //把当前key,value添加到table[i]的链表中
   	        addEntry(hash, key, value, i);
   	        return null;
       }
以上总结:
	1. 判断table是否初始化,如果没有就进行初始化   (分配空间,Entry[]数组的长度)。
	2. 判断key是否为null,如果key==null ,放置在Entry[]的0号位置。
	3. 计算在Entry[]数组的存储位置,判断该位置上是否已有元素,如果已经有元素存在,则遍历该Entry[]数组位置上的单链表。
	4. 判断key是否存在,如果key已经存在,则用新的value值,替换点旧的value值,并将旧的value值返回。
	5. 如果key不存在于HashMap中,程序继续向下执行。将key-vlaue, 生成Entry实体,添加到HashMap中的Entry[]数组中。
	6. 添加到方法的具体操作,在添加之前先进行容量的判断,如果当前**容量达到了阈值**,并且需要存储到Entry[]数组中,先进性扩容操作,扩容的**容量为table长度的2倍**。
	7. 重新计算hash值,和数组存储的位置,**扩容后的链表顺序与扩容前的链表顺序相反**。
	8. 然后将**新添加的Entry实体存放到当前Entry[]位置链表的头部**。

在这里做一个说明: 
	在1.8之前,新插入的元素都是放在了链表的头部位置,但是这种操作在高并发的环境下容易导致死锁,所以1.8之后,新插入的元素都放在了链表的尾部。

补充一下1.8的源码:

public V put(K key, V value) {
    //调用putVal()方法完成
    return putVal(hash(key), key, value, false, true);
}

final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
               boolean evict) {
    Node<K,V>[] tab; Node<K,V> p; int n, i;
    //判断table是否初始化,否则初始化操作
    if ((tab = table) == null || (n = tab.length) == 0)
        n = (tab = resize()).length;
    //计算存储的索引位置,如果没有元素,直接赋值
    if ((p = tab[i = (n - 1) & hash]) == null)
        tab[i] = newNode(hash, key, value, null);
    else {
        Node<K,V> e; K k;
        //节点若已经存在,执行赋值操作
        if (p.hash == hash &&
            ((k = p.key) == key || (key != null && key.equals(k))))
            e = p;
        //判断链表是否是红黑树
        else if (p instanceof TreeNode)
            //红黑树对象操作
            e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
        else {
            //为链表,
            for (int binCount = 0; ; ++binCount) {
                if ((e = p.next) == null) {
                    p.next = newNode(hash, key, value, null);
                    //链表长度8,将链表转化为红黑树存储
                    if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                        treeifyBin(tab, hash);
                    break;
                }
                //key存在,直接覆盖
                if (e.hash == hash &&
                    ((k = e.key) == key || (key != null && key.equals(k))))
                    break;
                p = e;
            }
        }
        if (e != null) { // existing mapping for key
            V oldValue = e.value;
            if (!onlyIfAbsent || oldValue == null)
                e.value = value;
            afterNodeAccess(e);
            return oldValue;
        }
    }
    //记录修改次数
    ++modCount;
    //判断是否需要扩容
    if (++size > threshold)
        resize();
    //空操作
    afterNodeInsertion(evict);
    return null;
}

借鉴一下别人的总结原文链接:https://www.jianshu.com/p/3bf097f4cf0a 来源:简书

  1. 如果当前map中没有数据,执行resize方法
  2. 如果要插入的键值对要存放的位置上刚好没有元素,那么就把它封装成Node对象,并放在这个位置上。
  3. 如果发生碰撞,判断node的类型是红黑树还是链表:
    3.1 如果为红黑树,则将K-V对插在红黑树对应的位置。
    3.2 如果为链表,遍历链表:
     a.如果为链表最后一个node ,则将新的node节点插入到链表尾
    b.插入完,如果链表的node数量大于8,则将链表转为红黑树的操作;如果当前哈希表为空或数组长度小于64,会扩容,否则转化为红黑树。转化的过程:先遍历链表 ,将链表的节点转化为红黑树的节点;然后将链表转化为红黑树。
    c.遍历链表时,如果key已存在,则直接bredk循环。
  4. 判断是否要扩容
  5. 返回
HashMap扩容机制
在HashMap中有一下两个属性和扩容相关:
		int threshold;
        final float loadFactor;
		其中threshold = Length * loadFactor,Length表示table数组的长度(默认值是16),loadFactor为负载因子(默认值是0.75),
		阀值threshold表示当table数组中存储的元素超过这个阀值的时候,就需要扩容了。
		以默认长度16,和默认负载因子0.75为例,threshold = 16 * 0.75 = 12,即当table数组中存储的元素个数超过12个的时候,table数组就该扩容了。

其中就引出了一个问题:
Java中的数组是无法自动扩容的,方法是使用一个新的数组代替已有的容量小的数组,然后将旧数组中的元素经过重新计算放到新数组中,那么怎样对旧元素进行重新映射呢?

由于我们在扩容时,是使用2的幂扩展,即数组的长度扩大到原来的2倍, 4倍, 8倍…,因此在resize时(Length - 1)这部分相当于在高位新增一个或多个1bit,我们以扩大到原来的两倍为例说明:
在这里插入图片描述
在这里插入图片描述
(a)中n为16,(b)中n扩大到两倍为32,相当于(n - 1)这部分的高位多了一个1, 然后和原hash码作与操作,这样元素在数组中映射的位置要么不变,要不向后移动16个位置:
在这里插入图片描述
因此,我们在扩充HashMap的时候,只需要看看原来的hash值新增的那个bit是1还是0就好了,是0的话索引没变,是1的话索引变成“原索引+oldCap”,可以看看下图为16扩充为32的resize示意图:
在这里插入图片描述
由于新增的1bit是0还是1可以认为是随机的,因此resize的过程,均匀的把之前的冲突的节点分散到新的bucket了。这一块就是JDK1.8新增的优化点。有一点注意区别,JDK1.7中resize的时候,旧链表迁移新链表的时候,如果在新表的数组索引位置相同,则链表元素会倒置,但是从上图可以看出,JDK1.8不会倒置。

HashMap的put方法:
	  public V get(Object key) {
        //如果key为null,求null键
        if (key == null)
            return getForNullKey();
        // 用该key求得entry
        Entry<K,V> entry = getEntry(key);

        return null == entry ? null : entry.getValue();
    }
    final Entry<K,V> getEntry(Object key) {
        int hash = (key == null) ? 0 : hash(key);
        for (Entry<K,V> e = table[indexFor(hash, table.length)];
             e != null;
             e = e.next) {
            Object k;
            if (e.hash == hash &&
                ((k = e.key) == key || (key != null && key.equals(k))))
                return e;
        }
        return null;
    }

(1)如果 key 为 null, 求null 键
(2)key 不为null , 调用hash(key) ,求得key对应的hash值,然后调用indexFor(hash) 求得hash 值 对应的table的索引位置,然后遍历索引位置的链表,如果存在key, 则把key 对应的Entry 返回,否则返回null 。

HashMap死锁形成原理

HashMap非线程安全,即任一时刻可以有多个线程同时写HashMap,可能会导致数据的不一致。如果需要满足线程安全,可以用 Collections的synchronizedMap方法使HashMap具有线程安全的能力,或者使用线程安全的ConcurrentHashMap。

要理解HashMap死锁形成的原理,我们要对HashMap的resize里的transfer过程有所了解,transfer过程是将旧数组中的元素复制到新数组中,在Java 8之前,复制过程会导致链表倒置,这也是形成死锁的重要原因(Java 8中已经不会倒置),transfer的基本过程如下:

1. 新建节点e指向当前节点,新建节点next指向e.next
2. 将e.next指向新数组中指定位置newTable[i]
3. newTable[i] = e
4. e = next

举栗:

现在有链表1->2->3,要将它复制到新数组的newTable[i]位置
1. Node e = 1, next = e.next;
2. e.next = newTable[i];
3. newTable[i] = e;
4. e = next, next = e.next;
执行完后会得到这样的结果:
newTable[i]=3->2->1

死锁会在这种情况产生:两个线程同时往HashMap里放Entry,同时HashMap正好需要扩容,如果一个线程已经完成了transfer过程,而另一个线程不知道,并且又要进行transfer的时候,死锁就会形成。

总结:
  1. 扩容是一个特别耗性能的操作,所以当程序员在使用HashMap的时候,估算map的大小,初始化的时候给一个大致的数值,避免map进行频繁的扩容。
  2. 负载因子是可以修改的,也可以大于1,但是建议不要轻易修改,除非情况非常特殊。
  3. HashMap是线程不安全的,不要在并发的环境中同时操作HashMap,建议使用ConcurrentHashMap。
  4. JDK1.8引入红黑树大程度优化了HashMap的性能。
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值