HashMap源码分析

一、简介

散列表(也叫哈希表),是一种根据散列函数(也叫哈希函数、hash函数)处理关键码值映射出索引位置的数组。散列函数一般通过取模的方式来实现。

JDK1.8 之前 HashMap 由 数组+链表 组成的,数组是 HashMap 的主体,链表则是主要为了解决哈希冲突而存在的(“拉链法”解决冲突)。 JDK1.8 以后采用 数组+链表+红黑树 的结构。1.8的HashMap 在解决哈希冲突时有了较大的变化,当链表长度大于阈值(默认为 8)且数组长度达到64时,将链表转化为红黑树,以减少搜索时间。

二、底层结构

1. JDK1.7 HashMap 由 数组+链表 组成

在这里插入图片描述

Enry<K,V>节点:上图中,每个绿色的实体是嵌套类 Entry 的实例,Entry 包含四个属性:key, value, hash 值和用于单向链表的 next。

2.JDK1.8 HashMap 由 数组+链表+红黑树 组成

在这里插入图片描述

需要注意的是:

  • 数组长度>=64,并且链表长度>8的时候,会树化;若只是链表长度达到了8,数组长度没达到64,只会先数组扩容;
  • 红黑树节点个数<6 的时候,会转换为链表。

三、源码分析

1.重要字段

首先,我们先来看一下HashMap里的重要属性。

// 默认的初始容量 16
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
// 最大容量,1左移30位
static final int MAXIMUM_CAPACITY = 1 << 30;
// 默认扩容因子 0.75
static final float DEFAULT_LOAD_FACTOR = 0.75f;
// 链表转红黑树的链表长度
static final int TREEIFY_THRESHOLD = 8;
// 红黑树转链表的阈值
static final int UNTREEIFY_THRESHOLD = 6;
// 链表转红黑树的数组长度
static final int MIN_TREEIFY_CAPACITY = 64;
// 实际存储Node节点的个数
transient int size;
// 记录HashMap被改动的次数,由于HashMap非线程安全,modCount可用于FailFast机制
transient int modCount;
// 扩容阈值,默认16*0.75=12,当填充到13个元素时,扩容后将会变为32,
int threshold;
// 负载因子 loadFactor=capacity*threshold,HashMap扩容需要参考loadFactor的值
final float loadFactor;
  • loadFactor 加载因子

loadFactor 加载因子是控制数组存放数据的疏密程度,loadFactor 越趋近于 1,那么 数组中存放的数据(entry)也就越多,也就越密,也就是会让链表的长度增加,loadFactor 越小,也就是趋近于 0,数组中存放的数据Node也就越少,也就越稀疏。

loadFactor 太大导致链化严重,查找元素效率低;太小导致数组的利用率低,存放的数据会很分散。loadFactor 的默认值为 0.75f 是官方给出的一个比较好的临界值

给定的默认容量为 16,加载因子为 0.75。Map 在使用过程中不断的往里面存放数据,当threshold数量达到 16 * 0.75 = 12 就需要将当前 16 的容量进行扩容,而扩容这个过程涉及到 rehash、复制数据等操作,所以非常消耗性能。

  • threshold扩容阈值

threshold = capacity * loadFactor,当实际节点个数 Size >= threshold的时候,那么就要考虑对数组的扩增了,也就是说,threshold就是衡量数组是否需要扩增的一个标准。

2.存储的数据—Node节点

然后,需要明白两个问题:数据底层具体存储的是什么?当我们要插入或者删除数据的时候,是通过什么方式来获取索引位置的呢?

HashMap的主体是一个哈希桶数组,它的字段 transient Node[] table,可以看出是一个Node的数组。我们来看Node[JDK1.8]是何物。

static class Node<K,V> implements Map.Entry<K,V> {
        final int hash;    //用来定位数组索引位置
        final K key;
        V value;
        Node<K,V> next;   //链表的下一个node

        Node(int hash, K key, V value, Node<K,V> next) { ... }
        public final K getKey(){ ... }
        public final V getValue() { ... }
        public final String toString() { ... }
        public final int hashCode() { ... }
        public final V setValue(V newValue) { ... }
        public final boolean equals(Object o) { ... }
}

Node是HashMap的一个内部类,实现了Map.Entry接口,本质是就是一个映射(Key-Value键值对)

所以每次插入的数据都是就是一个Node对象。当然,在JDK1.7版本中,是直接使用的Entry。

3.计算索引位置—hash() + 路由寻址

当我们需要增加、删除或者查找Node的时候,定位到哈希桶数组的位置都是很关键的第一步。那么,HashMap是通过什么方式来找到索引的呢?

HashMap主要是通过 hash()方法 + 路由寻址h & (table.length -1) 的方式来求得索引位置的。

3.1 hash()方法

hash()方法也叫做散列函数、扰动函数…

// 方法一(JDK1.8):
static final int hash(Object key) {   //jdk1.8 & jdk1.7
     int h;
     // h = key.hashCode() 第一步 取hashCode值
     // h ^ (h >>> 16)  第二步 高位参与运算
     return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
// hashCode():返回一个哈希码值
public native int hashCode();

// 方法一(JDK1.7):
static int hash(int h) {
    h ^= (h >>> 20) ^ (h >>> 12);
    return h ^ (h >>> 7) ^ (h >>> 4);
}

// 方法二:
static int indexFor(int h, int length) {  //jdk1.7的源码,jdk1.8没有这个方法,但是实现原理一样的
     return h & (length-1);  //第三步 取模运算
}

可以看到,计算索引分为三步:取key的hashCode值、高位运算、取模运算;在JDK8 中,前两步由hash()方法来完成,最后一步在putVal()、getNode()等方法里实现

  • 取key的hashCode值:hashCode()是一个native方法,而且返回值类型是 32位 的int型的哈希码值。实际上,该native方法将对象在内存中的地址作为哈希码返回,可以保证不同对象的返回值不同(这句话,有待考证,是我从一篇博客上看的)。

  • 高位运算(h = key.hashCode()) ^ (h >>> 16):因为hashCode()返回值类型是 32位 的int型,右移16位可以让哈希值的高16位参与运算可以更好的均匀散列,减少碰撞,进一步降低hash冲突的几率。

相比于 JDK1.8 的 hash 方法 ,JDK 1.7 的 hash 方法的性能会稍差一点点,因为毕竟扰动了 4 次。

3.2 路由寻址公式

经过hash()方法处理过的散列值,需要通过路由寻址算法h & (table.length -1),来计算索引值。

  • 取模运算:通过路由寻址公式h & (table.length -1)来实现。(table.length -1)相当于一个“低位掩码”,“与”操作的结果就是哈希码值的高位全部归零,只保留低位值,且位运算比取余%运算要快。

因为HashMap数组长度都是取2的整数幂。以初始长度16为例,16-1=15。2进制表示是0 0000000 00000000 00001111。和某散列值做“与”操作如下,结果就是截取了最低的四位值。

  10100101 11000100 00100101
& 00000000 00000000 00001111
----------------------------------
  00000000 00000000 00000101    //高位全部归零,只保留末四位

总的来说,在JDK1.8的实现中,优化了高位运算的算法,通过hashCode()的高16位异或低16位实现的:(h = k.hashCode()) ^ (h >>> 16),主要是从速度、功效、质量来考虑的。这么做可以在数组table的长度比较小的时候,也能保证考虑到高低位都参与到Hash的计算中,降低hash冲突,同时不会有太大的开销。

下面举例说明下,n为table的长度。

img

4.哈希冲突

前面已经知道,HashMap的存储结构。HashMap就是使用哈希表来存储的,但哈希表会伴随有哈希冲突。所谓哈希冲突,就是把大于数组容量的多个节点通过映射的方式存放在数组里,不管怎么映射,总会存在一个桶位,放多个节点数据的情况。就好像抽屉原理,要把十个苹果更平均的放到九个抽屉里,无论怎样放,我们会发现至少会有一个抽屉里面至少放两个苹果。

解决方法:可以采用开放地址法拉链法等来解决问题,Java中HashMap采用了拉链法(也叫链地址、链表法)。 “拉链法” :将链表和数组相结合。也就是说创建一个链表数组,数组中每一格就是一个链表。若遇到哈希冲突,则将冲突的值加到链表中即可。

当然,如前文所说,如果链表长度过长时,查询效率也会变慢。JDK1.8 以后在解决哈希冲突时有了较大的变化。当**链表长度大于阈值(默认为 8)**时,会首先调用 treeifyBin()方法。这个方法会根据 HashMap 数组来决定是否转换为红黑树。只有当数组长度大于或者等于 64 的情况下,调用treeify()方法,才会执行转换红黑树操作,以减少搜索时间。否则,就是只是执行 resize() 方法对数组扩容。

5.构造方法
// 默认构造函数。
public HashMap() {
    this.loadFactor = DEFAULT_LOAD_FACTOR; // all   other fields defaulted
}

// 包含另一个“Map”的构造函数
public HashMap(Map<? extends K, ? extends V> m) {
    this.loadFactor = DEFAULT_LOAD_FACTOR;
    putMapEntries(m, false);//下面会分析到这个方法
}

// 指定“容量大小”的构造函数
public HashMap(int initialCapacity) {
    this(initialCapacity, DEFAULT_LOAD_FACTOR);
}

// 指定“容量大小”和“加载因子”的构造函数
public HashMap(int initialCapacity, float loadFactor) {
    if (initialCapacity < 0)
        throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity);
    if (initialCapacity > MAXIMUM_CAPACITY)
        initialCapacity = MAXIMUM_CAPACITY;
    if (loadFactor <= 0 || Float.isNaN(loadFactor))
        throw new IllegalArgumentException("Illegal load factor: " + loadFactor);
    this.loadFactor = loadFactor;
    this.threshold = tableSizeFor(initialCapacity); // 调整初始容量满足2^n
}

final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
    int s = m.size();
    if (s > 0) {
        // 判断table是否已经初始化
        if (table == null) { // pre-size
            // 未初始化,s为m的实际元素个数
            float ft = ((float)s / loadFactor) + 1.0F;
            int t = ((ft < (float)MAXIMUM_CAPACITY) ?
                     (int)ft : MAXIMUM_CAPACITY);
            // 计算得到的t大于阈值,则初始化阈值
            if (t > threshold)
                threshold = tableSizeFor(t);
        }
        // 已初始化,并且m元素个数大于阈值,进行扩容处理
        else if (s > threshold)
            resize();
        // 将m中的所有元素添加至HashMap中
        for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {
            K key = e.getKey();
            V value = e.getValue();
            putVal(hash(key), key, value, false, evict);
        }
    }
}

HashMap的初始化,那HashMap怎么设定初始容量大小

一般如果new HashMap() 不传值,默认大小是16,负载因子是0.75。 如果自己传入初始大小k,k不为2的n方。为了满足数组长度为2^n,则会自动初始化大小为大于k的2的整数次方,例如如果传10,初始化大小就变为16。主要是通过tableSizeFor()方法实现的:

static final int tableSizeFor(int cap) {
  int n = cap - 1;
  n |= n >>> 1;
  n |= n >>> 2;
  n |= n >>> 4;
  n |= n >>> 8;
  n |= n >>> 16;
  return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}

下图是详细过程,算法就是让初始二进制右移1,2,4,8,16位,分别与自己按位 或运算,把高位第一个为1的数通过不断右移,把高位为1的后面全变为1,最后再进行+1操作,111111+1=1000000=2^6。

在这里插入图片描述
6.插入节点—put()与putVal()方法

HashMap 只提供了 put ()方法用于添加元素,putVal ()方法只是给 put ()方法调用的一个方法,并没有提供给用户使用。

public V put(K key, V value) {
    return putVal(hash(key), key, value, false, true);
}

final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
    Node<K,V>[] tab; Node<K,V> p; int n, i;
    // table未初始化或者长度为0,进行扩容
    if ((tab = table) == null || (n = tab.length) == 0)
        n = (tab = resize()).length;
    // (n - 1) & hash 确定元素存放在哪个桶中,桶为空,新生成结点放入桶中(此时,这个结点是放在数组中)
    if ((p = tab[i = (n - 1) & hash]) == null)
        tab[i] = newNode(hash, key, value, null);
    // 桶中已经存在元素
    else {
        Node<K,V> e; K k;
        // 比较桶中第一个元素(数组中的结点)的hash值相等,key相等
        if (p.hash == hash &&
            ((k = p.key) == key || (key != null && key.equals(k))))
                // 将第一个元素赋值给e,用e来记录
                e = p;
        // hash值不相等,即key不相等;为红黑树结点
        else if (p instanceof TreeNode)
            // 放入树中
            e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
        // 为链表结点
        else {
            // 在链表最末插入结点
            for (int binCount = 0; ; ++binCount) {
                // 到达链表的尾部
                if ((e = p.next) == null) {
                    // 在尾部插入新结点
                    p.next = newNode(hash, key, value, null);
                    // 结点数量达到阈值(默认为 8 ),执行 treeifyBin 方法
                    // 这个方法会根据 HashMap 数组来决定是否转换为红黑树。
                    // 只有当数组长度大于或者等于 64 的情况下,才会执行转换红黑树操作,以减少搜索时间。否则,就是只是对数组扩容。
                    if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                        treeifyBin(tab, hash);
                    // 跳出循环
                    break;
                }
                // 判断链表中结点的key值与插入的元素的key值是否相等
                if (e.hash == hash &&
                    ((k = e.key) == key || (key != null && key.equals(k))))
                    // 相等,跳出循环
                    break;
                // 用于遍历桶中的链表,与前面的e = p.next组合,可以遍历链表
                p = e;
            }
        }
        // 表示在桶中找到key值、hash值与插入元素相等的结点
        if (e != null) {
            // 记录e的value
            V oldValue = e.value;
            // onlyIfAbsent为false或者旧值为null
            if (!onlyIfAbsent || oldValue == null)
                //用新值替换旧值
                e.value = value;
            // 访问后回调
            afterNodeAccess(e);
            // 返回旧值
            return oldValue;
        }
    }
    // 结构性修改
    ++modCount;
    // 实际大小大于阈值则扩容
    if (++size > threshold)
        resize();
    // 插入后回调
    afterNodeInsertion(evict);
    return null;
}

// 判断树化的方法
final void treeifyBin(Node<K,V>[] tab, int hash) {
    int n, index; Node<K,V> e;
    // 如果 数组为null 或者 数组长度小于64
    if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
        resize(); // 扩容机制 后面会讲
    // 数组长度达到了64 且 索引位置处不为空
    else if ((e = tab[index = (n - 1) & hash]) != null) {
        TreeNode<K,V> hd = null, tl = null;
        do {
            TreeNode<K,V> p = replacementTreeNode(e, null);// e.next ---> null
            if (tl == null)
                hd = p;
            else {
                p.prev = tl;
                tl.next = p;
            }
            tl = p;
        } while ((e = e.next) != null);
        if ((tab[index] = hd) != null)
            // 这里才会真正的树化
            hd.treeify(tab);
    }
}

putVal()方法的执行流程如下:

  • 第一步:判断键值对数组table[i]是否为空null,是则执行resize()扩容。
  • 第二步:根据键key计算hash值得到插入数组的索引i,如果tab[i]== null则直接插入,执行第六步;如果tab[i] != null,执行第三步。
  • 第三步:判断tab[i]的第一个元素与插入元素key的hashcode&equals是否相等,相等则覆盖,否则执行第四步。
  • 第四步:判断tab[i]是否是红黑树节点TreeNode,是则在红黑树中插入节点,否则执行第五步。
  • 第五步:遍历tab[i]判断链表是否大于8,当**链表长度大于阈值(默认为 8)**时,会首先调用 treeifyBin()方法。这个方法会根据 HashMap 数组来决定是否转换为红黑树。只有当数组长度大于或者等于 64 的情况下,再调用treeify()方法,才会执行转换红黑树操作,以减少搜索时间。否则,就是只是执行 resize() 方法对数组扩容。图中没画出具体细节。
  • 第六步:插入成功,判断hashmap的size是否超过threshold的值,超过则扩容。

在这里插入图片描述

这里我没有写红黑树的情况,等几天我会再总结一下红黑树。

再对比下1.7版本的put方法,主要区别是头插法和尾插法,以及红黑树的引用。

JDK1.7 的put()方法

  • 如果定位到的数组位置没有元素 就直接插入;
  • 如果定位到的数组位置有元素,遍历以这个元素为头结点的链表,依次和插入的 key 比较,如果 key 相同就直接覆盖,不同就采用头插法插入元素。
7.获取节点值—get()与getNode()方法

get()方法比较简单,也是通过调用getNode()方法来完成的。大致逻辑和插入差不多。

public V get(Object key) {
    Node<K,V> e;
    return (e = getNode(hash(key), key)) == null ? null : e.value;
}

final Node<K,V> getNode(int hash, Object key) {
    Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
    if ((tab = table) != null && (n = tab.length) > 0 &&
        (first = tab[(n - 1) & hash]) != null) {
        // 数组元素相等
        if (first.hash == hash && // always check first node
            ((k = first.key) == key || (key != null && key.equals(k))))
            return first;
        // 桶中不止一个节点
        if ((e = first.next) != null) {
            // 在树中get
            if (first instanceof TreeNode)
                return ((TreeNode<K,V>)first).getTreeNode(hash, key);
            // 在链表中get
            do {
                if (e.hash == hash &&
                    ((k = e.key) == key || (key != null && key.equals(k))))
                    return e;
            } while ((e = e.next) != null);
        }
    }
    return null;
}
8.扩容机制—resize()方法

扩容(resize)就是重新计算容量,向HashMap对象里不停的添加元素,而HashMap对象内部的数组无法装载更多的元素时,对象就需要扩大数组的长度,以便能装入更多的元素。当然Java里的数组是无法自动扩容的,方法是使用一个新的数组代替已有的容量小的数组,就像我们用一个小桶装水,如果想装更多的水,就得换大水桶。

HashMap会在两个地方进行resize(扩容):

  • HashMap实行了懒加载,新建HashMap时不会对table进行赋值, 而是到第一次插入时, 进行resize时构建table;
  • HashMap.size 大于 threshold时,会进行resize。当第一次构建时, 如果没有指定HashMap.table的初始长度,就用默认值16, 否则就是指定的值;然后不管是第一次构建还是后续扩容, threshold = table.length * loadFactor。
final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
    if ((tab = table) == null || (n = tab.length) == 0)
        n = (tab = resize()).length;
    ...
        if (++size > threshold)
            resize();
    ...
}

下面来看一看resize()源码:

final Node<K,V>[] resize() {
    //oldTab:引用扩容前的哈希表
    //oldCap:表示扩容之前table数组的长度
    //oldThr:表示扩容之前的扩容阈值,触发本次扩容的阈值
    Node<K,V>[] oldTab = table;
    int oldCap = (oldTab == null) ? 0 : oldTab.length;
    int oldThr = threshold;
    //newCap:扩容之后table数组的大小
    //newThr:扩容之后,下次再次触发扩容的条件
    int newCap, newThr = 0;

    //条件如果成立说明 hashMap中的散列表table已经初始化过了,这是一次正常扩容
    if (oldCap > 0) {
        //扩容之前的table数组大小已经达到 最大长度 后,则不扩容,且设置扩容条件为 int 最大值。
        if (oldCap >= MAXIMUM_CAPACITY) {
            threshold = Integer.MAX_VALUE;
            return oldTab;
        }

        //oldCap左移一位实现数值翻倍,并且赋值给newCap, newCap 小于数组最大值限制 且 扩容之前的长度 >= 16
        //这种情况下,则 下一次扩容的阈值 等于当前阈值翻倍
        else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                 oldCap >= DEFAULT_INITIAL_CAPACITY)
            newThr = oldThr << 1; // double threshold
    }

    //oldCap == 0,说明hashMap中的散列表table是null
    //1.new HashMap(initCap, loadFactor);
    //2.new HashMap(initCap);
    //3.new HashMap(map); 并且这个map有数据
    else if (oldThr > 0) // initial capacity was placed in threshold
        newCap = oldThr;

    //oldCap == 0,oldThr == 0
    //new HashMap();
    else {               // zero initial threshold signifies using defaults
        newCap = DEFAULT_INITIAL_CAPACITY;//16
        newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);//12
    }

    //newThr为零时,通过newCap和loadFactor计算出一个newThr
    if (newThr == 0) {
        float ft = (float)newCap * loadFactor;
        newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                  (int)ft : Integer.MAX_VALUE);
    }

    threshold = newThr;

    //创建出一个更长 更大的数组
    @SuppressWarnings({"rawtypes","unchecked"})
    Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
    table = newTab;

    //说明,hashMap本次扩容之前,table不为null
    if (oldTab != null) {

        for (int j = 0; j < oldCap; ++j) {
            // 当前node节点
            Node<K,V> e;
            //说明当前桶位中有数据,但是数据具体是 单个数据,还是链表 还是 红黑树 并不知道
            if ((e = oldTab[j]) != null) {
                //把引用制空-----方便JVM GC时回收内存
                oldTab[j] = null;

                //第一种情况:当前桶位只有一个元素,从未发生过碰撞,这情况 直接计算出当前元素应存放在 新数组中的位置,然后
                //扔进去就可以了
                if (e.next == null)
                    newTab[e.hash & (newCap - 1)] = e;

                //第二种情况:当前节点已经树化,本期先不讲,下一期讲,红黑树。QQ群:865-373-238
                else if (e instanceof TreeNode)
                    ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                else { // preserve order
                    //第三种情况:桶位已经形成链表

                    //低位链表:存放在扩容之后的数组的下标位置,与当前数组的下标位置一致。
                    Node<K,V> loHead = null, loTail = null;
                    //高位链表:存放在扩容之后的数组的下标位置为 原数组下标位置 + 原数组的长度
                    Node<K,V> hiHead = null, hiTail = null;

                    Node<K,V> next;
                    do {
                        // 定义next指针指向当前节点
                        next = e.next;
                        //hash-> .... 1 1111
                        //hash-> .... 0 1111
                        // oldCap没有减一 所以为 10000

                        // 如果原元素位置没有发生变化
                        if ((e.hash & oldCap) == 0) {
                            if (loTail == null)
                                loHead = e;// 确定首元素
                            else
                                loTail.next = e;
                            loTail = e; // 指针后移
                        }
                        else {
                            if (hiTail == null)
                                hiHead = e;
                            else
                                hiTail.next = e;
                            hiTail = e;
                        }

                    } while ((e = next) != null);

                    // 低位链后面有其他元素
                    if (loTail != null) {
                        loTail.next = null;
                        newTab[j] = loHead;
                    }

                    if (hiTail != null) {
                        hiTail.next = null;
                        newTab[j + oldCap] = hiHead;
                    }

                }
            }
        }
    }
    return newTab;
}

resize()方法的源码较长,我们可以分成两部分来看:第一部分是确定新数组的长度newCap,新阈值newThr;第二部分是扩容后,数据从旧数组拷贝到新数组。

8.1确定新数组的长度与新阈值

这里只看跟新数组的长度和阈值有关的部分。

final Node<K,V>[] resize() {
    
    ...
        
    //条件如果成立说明 hashMap中的散列表table已经初始化过了,这是一次正常扩容
    if (oldCap > 0) {
        //扩容之前的table数组大小已经达到 最大长度 后,则不扩容,且设置扩容条件为 int 最大值。
        if (oldCap >= MAXIMUM_CAPACITY) {
            threshold = Integer.MAX_VALUE;
            return oldTab;
        }

        //oldCap左移一位实现数值翻倍,并且赋值给newCap, newCap 小于数组最大值限制 且 扩容之前的长度 >= 16
        //这种情况下,则 下一次扩容的阈值 等于当前阈值翻倍
        else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                 oldCap >= DEFAULT_INITIAL_CAPACITY)
            newThr = oldThr << 1; // double threshold
    }

    //oldCap == 0,说明hashMap中的散列表table是null
    //1.new HashMap(initCap, loadFactor);
    //2.new HashMap(initCap);
    //3.new HashMap(map); 并且这个map有数据
    else if (oldThr > 0) // initial capacity was placed in threshold
        newCap = oldThr;

    //oldCap == 0,oldThr == 0
    //new HashMap();
    else {               // zero initial threshold signifies using defaults
        newCap = DEFAULT_INITIAL_CAPACITY;//16
        newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);//12
    }

    //newThr为零时,通过newCap和loadFactor计算出一个newThr
    if (newThr == 0) {
        float ft = (float)newCap * loadFactor;
        newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                  (int)ft : Integer.MAX_VALUE);
    }
    
    ...
        
}

这部分可以分为:

  • 第一步:判断是否初始化过oldCap > 0,初始化过跳到第二步,没有跳到第三步;
  • 第二步:初始化过,判断数组长度是否最大长度2^30,
    • 达到了最大阈值后,不扩容,设置阈值为 int 最大值;
    • 没达到,oldCap左移一位实现数值翻倍,并且赋值给newCap。——>如果还满足 newCap小于数组最大值限制、扩容之前的长度 >= 16 的条件,则下一次扩容的阈值 等于当前阈值翻倍;
  • 第三步:未初始化,判断oldThr是否为0,
    • 不为0(oldCap == 0,oldThr != 0),设置newCap=oldThr;
    • 为0(oldCap == 0,oldThr == 0),设置newCap=默认初始容量16,newThr=默认初始容量16 * 默认加载因子0.75;
  • 第四步:针对前面只生成了newCap,没有newThr的情况,通过newCap和loadFactor计算出一个newThr。

通过这段代码确定了新数组的长度与新的阈值。

8.2 旧数组的数据拷贝到新数组
//说明,hashMap本次扩容之前,table不为null
if (oldTab != null) {
	// 遍历旧数组赋值到新数组中
    for (int j = 0; j < oldCap; ++j) {
        // 定义虚拟头节点指向每个槽位的链表头
        Node<K,V> e;
        // 说明当前桶位中有数据,但是数据具体是:单个数据、链表或是红黑树,并不知道
        if ((e = oldTab[j]) != null) {
            //把引用制空-----方便JVM GC时回收内存
            oldTab[j] = null;

            //第一种情况:当前桶位只有一个元素,从未发生过碰撞,这情况 直接计算出当前元素应存放在 新数组中的位置,然后扔进去就可以了
            if (e.next == null)
                newTab[e.hash & (newCap - 1)] = e;

            //第二种情况:当前节点已经树化,先不讲。
            else if (e instanceof TreeNode)
                ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
            else { // preserve order
                //第三种情况:桶位已经形成链表

                //低位链表:存放在扩容之前的数组的下标位置,与当前数组的下标位置一致。
                Node<K,V> loHead = null, loTail = null;
                //高位链表:存放在扩容之后的数组的下标位置,下标位置=原数组下标位置+原数组的长度
                Node<K,V> hiHead = null, hiTail = null;
                Node<K,V> next;
                do {
                    // 用来遍历链表
                    next = e.next;
                    
                    // hash-> .... 1 1111
                    // hash-> .... 0 1111
                    // oldCap 没有减一 所以为 10000
                    
                    // 获取当前节点的hash值,与oldCap做按位与运算,如果运算结果为0,则加入lo链
                    if ((e.hash & oldCap) == 0) {
                        if (loTail == null)
                            loHead = e;
                        else
                            loTail.next = e;
                        loTail = e; 
                    }
                    // 否则加入hi链
                    else {
                        if (hiTail == null)
                            hiHead = e;
                        else
                            hiTail.next = e;
                        hiTail = e;
                    }
                } while ((e = next) != null);

                // 新数组的原位置指向lo链的头节点
                if (loTail != null) {
                    loTail.next = null;
                    newTab[j] = loHead;
                }
                
				// 新数组的 j+oldCap 指向hi链的头节点
                if (hiTail != null) {
                    hiTail.next = null;
                    newTab[j + oldCap] = hiHead;
                }
            }
        }
    }
}

有了新的数组,就可以把旧的数组元素拷贝进去。

首先遍历旧数组,定义一个虚拟头节e点用于指向旧数组每个槽位的头节点e = oldTab[j]。如果旧数组的槽位里不为null,槽位里的节点数据可能是是:单个节点、链表或是红黑树。所以分为三种情况:

  • 第一种情况:当前桶位只有一个元素,根据e.hash & (newCap - 1)直接计算出该元素应存放在新数组中的位置,然后扔进去就可以了;
  • 第二种情况:桶位里是树节点,比较复杂,后面会总结红黑树;
  • 第三种情况:桶位里是链表,定义指针节点next,来遍历链表(e = next) != null,然后根据e.hash & oldCap计算,如果结果为0加入lo链,如果结果为1加入hi链。最后,将新数组的原位置(跟旧数组相同的位置)指向lo链的头节点,新数组的[j+oldCap]指向hi链的头节点。

这里重点介绍一下第三种情况,桶位里是链表。

与之前的路由寻址h & (table.length -1)不同,这里使用的是e.hash & oldCap来判断扩容后的位置,oldCap为数组长度。只使用length来与运算,说明保留了hash值的高位,如:如果是数组长度为16,路由寻址(table.length -1)—0000,现在oldCap—10000。

所以,在旧的数组里,同一个槽位的链表里,因为使用的是h & (table.length -1)计算下标,对于哈希值的高位可能是0,也可能是1。如果高位是0的时候,就即0 0101 = 5这样,他在新数组里的索引位置和旧数组一样;如果高位是1的,在新数组里的位置就为 1 0101 = 16 + 5,即,[j+oldCap], j为旧数组里的索引。

具体看下图:

img

n为table的长度,图(a)表示扩容前的key1和key2两种key确定索引位置的示例,图(b)表示扩容后key1和key2两种key确定索引位置的示例,其中hash1是key1对应的哈希与高位运算结果。

数据在重新计算hash之后,因为n变为2倍,那么n-1的mask范围在高位多1bit(红色),因此新的index就会发生这样的变化:

img

img

8.3 与JDK1.7的resize()对比

1.7版本的resize方法比1.8的简单,源码如下:

void resize(int newCapacity) {   //传入新的容量
    Entry[] oldTable = table;    //引用扩容前的Entry数组
    int oldCapacity = oldTable.length;         
    if (oldCapacity == MAXIMUM_CAPACITY) {  //扩容前的数组大小如果已经达到最大(2^30)了
        threshold = Integer.MAX_VALUE; //修改阈值为int的最大值(2^31-1),这样以后就不会扩容了
        return;
    }

    Entry[] newTable = new Entry[newCapacity];  //初始化一个新的Entry数组
    transfer(newTable);                         //!!将数据转移到新的Entry数组里
    table = newTable;                           //HashMap的table属性引用新的Entry数组
    threshold = (int)(newCapacity * loadFactor);//修改阈值
}

使用一个容量更大的数组来代替已有的容量小的数组,transfer()方法将原有Entry数组的元素拷贝到新的Entry数组里。

void transfer(Entry[] newTable) {
    Entry[] src = table;                   //src引用了旧的Entry数组
    int newCapacity = newTable.length;
    for (int j = 0; j < src.length; j++) { //遍历旧的Entry数组
        Entry<K,V> e = src[j];             //取得旧Entry数组的每个元素
        if (e != null) {
            src[j] = null;//释放旧Entry数组的对象引用(for循环后,旧的Entry数组不再引用任何对象)
            do {
                Entry<K,V> next = e.next;
                int i = indexFor(e.hash, newCapacity); //!!重新计算每个元素在数组中的位置
                e.next = newTable[i]; //标记[1]
                newTable[i] = e;      //将元素放在数组上
                e = next;             //访问下一个Entry链上的元素
            } while (e != null);
        }
    }
} 

e.next = newTable[i];:说明newTable[i]的引用赋给了e.next,也就是使用了单链表的头插法方式,同一位置上新元素总会被放在链表的头部位置;这样先放在一个索引上的元素终会被放到Entry链的尾部(如果发生了hash冲突的话),这一点和Jdk1.8有区别。1.8是定义了两条链lo与hi,定义节点next遍历链表,再将节点的哈希值进行与运算判断应该插入lo或者hi链的尾部(尾插法),最后再将新数组的的下标指向对应的两条链。

举个例子,看下JDK1.7的扩容过程。假设了我们的hash算法就是简单的 用key取模(mod) 表的大小(也就是数组的长度)。其中的哈希桶数组table的size=2, 所以key = 3、7、5,插入的顺序依次为 5、7、3。在mod 2以后都冲突在table[1]这里了。这里假设负载因子 loadFactor=1,即当键值对的实际大小size 大于 table的实际大小时进行扩容。接下来的三个步骤是哈希桶数组 resize成4,然后所有的Node重新rehash的过程。

img

9.线程安全性(死循环)

在多线程使用场景中,应该尽量避免使用线程不安全的HashMap,而使用线程安全的ConcurrentHashMap(争取下周能不能总结完并发map)。那么为什么说HashMap是线程不安全的,下面举例子说明在并发的多线程使用场景中使用HashMap可能造成死循环。代码例子如下(便于理解,仍然使用JDK1.7的环境):

public class HashMapInfiniteLoop {  

    private static HashMap<Integer,String> map = new HashMap<Integer,String>(20.75f);  
    public static void main(String[] args) {  
        map.put(5"C");  

        new Thread("Thread1") {  
            public void run() {  
                map.put(7, "B");  
                System.out.println(map);  
            };  
        }.start();  
        new Thread("Thread2") {  
            public void run() {  
                map.put(3, "A);  
                System.out.println(map);  
            };  
        }.start();        
    }  
} 

其中,map初始化为一个长度为2的数组,loadFactor=0.75threshold=2*0.75=1,也就是说当put第二个key的时候,map就需要进行resize。

通过设置断点让线程1和线程2同时debug到transfer方法(8.3节)的首行。注意此时两个线程已经成功添加数据。放开thread1的断点至transfer方法的“Entry next = e.next;” 这一行;然后放开线程2的的断点,让线程2进行resize。结果如下图。

img

注意,Thread1的 e 指向了key(3),而next指向了key(7),其在线程二rehash后,指向了线程二重组后的链表。

线程一被调度回来执行,先是执行 newTalbe[i] = e, 然后是e = next,导致了e指向了key(7),而下一次循环的next = e.next导致了next指向了key(3)。

img

e.next = newTable[i] 导致 key(3).next 指向了 key(7)。注意:此时的key(7).next 已经指向了key(3), 环形链表就这样出现了。

img

于是,当我们用线程一调用map.get(11)时,悲剧就出现了——Infinite Loop。

所以在并发的情况,发生扩容时,可能会产生循环链表,在执行get的时候,会触发死循环,引起CPU的100%问题,所以一定要避免在并发环境下使用HashMap。

曾经有人把这个问题报给了Sun,不过Sun不认为这是一个bug,因为在HashMap本来就不支持多线程使用,要并发就用ConcurrentHashmap。

参考文献:

Java 8系列之重新认识HashMap

一个HashMap跟面试官扯了半个小时

HashMap详解

老生常谈,HashMap的死循环

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值