HashMap 源码分析详解

数据结构 (1.7、1.8的区别)

        JDK1.7 之前,HashMap采用(数组 + 链表 )头插法插入元素,在大量并发情况下扩容过程中有可能会形成环形链表,产生死循环问题。

        JDK1.8 之后,基于(数组 + 链表 + 红黑树) 数据结构进行实现,链表扩容采用尾插法解决死循环问题,引入红黑树使用二分法进行定位,查询性能较高,并对代码设计进行了优化

理解HashMap基础【JDK1.8】

 查看源码里面几个静态常量定义,可以看出:

public class HashMap<K,V> extends AbstractMap<K,V>
    implements Map<K,V>, Cloneable, Serializable {

    /**
     * 这个是默认容量 【16】,必须是 2 的幂。
     */
    static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16

    /**
     * 最大容量,如果一个更高的值由任何一个带参数的构造函数隐式指定时使用,
     * 必须是 2 <= 1<<30 的幂。
     */
    static final int MAXIMUM_CAPACITY = 1 << 30;

    /**
     * 构造函数中未指定时使用的负载因子 
     */
    static final float DEFAULT_LOAD_FACTOR = 0.75f;

    /**
     * 使用树而不是列表的 bin 计数阈值。
     * 将元素添加到至少具有这么多节点的 bin 时,bin 将转换为树。
     * 该值必须大于 2 并且应该至少为 8,以便与树移除中关于在收缩时转换回普通 bin 的假设相吻合
     */
    static final int TREEIFY_THRESHOLD = 8;

    /**
     * 在调整大小操作期间去树化(拆分)bin 的 bin 计数阈值。
     * 应小于 TREEIFY_THRESHOLD,并且最多 6 以在移除时进行收缩检测。
     */
    static final int UNTREEIFY_THRESHOLD = 6;

    /**
     * 可对其进行树化的 bin 的最小表容量。
     * 如果 bin 中有太多节点,则调整表的大小。
     * 大小应至少为 4 * 8 以避免调整大小和树化阈值之间的冲突。
     */
    static final int MIN_TREEIFY_CAPACITY = 64;

    .....
}

HashMap继承了AbstractMap类,实现了Map,Cloneable,Serializable接口,那么就具有拷贝、序列化的功能。

以上源码可以理解为,默认容量是 16 ,动态加载因子 0.75f , 当数组长度大于 64 和 链表 长度大于 8 就会进行树化操作,而当红黑树的节点小于等于 6 后会进行去树化操作。

为何选择链表长度 6【缩容】 和 8【扩容】呢?

        是基于红黑树的平均查找长度是log(n),假设长度为8,查找长度为log(8)=3,链表的平均查找长度为n/2,那么 6 / 2 = 3,两者的查找平均长度临界值为 3,所以当长度为 8 才有转换成树的必要。

实现原理

 源码内部定义了节点 Node<K,V> 类 ,它拥有四个属性:

static class Node<K,V> implements Map.Entry<K,V> {
        final int hash;
        final K key;
        V value;
        Node<K,V> next;

        Node(int hash, K key, V value, Node<K,V> next) {
            this.hash = hash;
            this.key = key;
            this.value = value;
            this.next = next;
        }

        public final K getKey()        { return key; }
        public final V getValue()      { return value; }
        public final String toString() { return key + "=" + value; }

        public final int hashCode() {
            return Objects.hashCode(key) ^ Objects.hashCode(value);
        }

        public final V setValue(V newValue) {
            V oldValue = value;
            value = newValue;
            return oldValue;
        }

        public final boolean equals(Object o) {
            if (o == this)
                return true;

            return o instanceof Map.Entry<?, ?> e
                    && Objects.equals(key, e.getKey())
                    && Objects.equals(value, e.getValue());
        }
    }

hash :key的哈希值(通过扰动函数计算)

key   :节点的key,类型和定义HashMap时的key相同

value:节点的value,类型和定义HashMap时的value相同

next  :该节点的下一节点,也是一个Node节点,由此产生了一个链表结构

上面每一个Node节点都会指向下一个 next,那么我们只需要记录第一个Node节点,就可以知道整条链的其他节点,所以 HashMap 使用一个数组,记录了每个链表的第一个节点,由此形成了数组 + 链表 的数据结构。

扩缩容机制

假设 创建一个 HashMap,当 put 存入一个数值时,那么它将会做哪些操作?

// 计算 KEY 的 hashCode 
static final int hash(Object key) {
    int h;
    return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}


public V put(K key, V value) {
    return putVal(hash(key), key, value, false, true);
}


final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
               boolean evict) {
    Node<K,V>[] tab; Node<K,V> p; int n, i;
    if ((tab = table) == null || (n = tab.length) == 0)
        n = (tab = resize()).length;
    if ((p = tab[i = (n - 1) & hash]) == null)
        tab[i] = newNode(hash, key, value, null);
    else {
        Node<K,V> e; K k;
        if (p.hash == hash &&
            ((k = p.key) == key || (key != null && key.equals(k))))
            e = p;
        else if (p instanceof TreeNode)
            e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
        else {
            for (int binCount = 0; ; ++binCount) {
                if ((e = p.next) == null) {
                    p.next = newNode(hash, key, value, null);
                    if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st    
                        treeifyBin(tab, hash);
                    break;
                }
                if (e.hash == hash &&
                    ((k = e.key) == key || (key != null && key.equals(k))))
                    break;
                p = e;
            }
        }
        if (e != null) { // existing mapping for key
            V oldValue = e.value;
            if (!onlyIfAbsent || oldValue == null)
                e.value = value;
            afterNodeAccess(e);
            return oldValue;
        }
    }
    ++modCount;
    if (++size > threshold)
        resize();
    afterNodeInsertion(evict);
    return null;
}

1、计算 key 的 hashCode,算出下标位置

        HashCode 是使用散列算法计算出来,取值范围是[-2147483648, 2147483647],但一般容量 较小,所以需代码进行了一次扰动计算(h = key.hashCode()) ^ (h >>> 16)  将哈希值右移16位,再与原哈希值做异或运算,相当于混合原哈希值中的高位和低位,这样可以增大随机性,让数值更小、更加均衡的散列分布,减少数值碰撞的情况

2、判断tab是否位空或者长度为0,如果是无参构造函数则进行初始化扩容操作,初始容量为16 ,如果使用有参构造函数创建HashMap,初始容量则为 指定容量的 2 次方,扩容阈值 = 容量 x 负载因子

static final int tableSizeFor(int cap) {
    int n = -1 >>> Integer.numberOfLeadingZeros(cap - 1);
    return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}

3、根据哈希值计算下标,如果没有链表节点,则直接插入数据

4、存在则判断 tab[i] 是否为树节点,是则向树中插入节点,否则向链表中插入数据

5、链表插入数据成功后,判断链表中的节点大于 8 个时,尝试转换为红黑树,treeifyBin(tab, hash) 方法里面再判断数组长度是否大于 64 ,大于则转换为红黑树。

final void treeifyBin(Node<K,V>[] tab, int hash) {
    int n, index; Node<K,V> e;
    if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
        resize();
    else if ((e = tab[index = (n - 1) & hash]) != null) {
        TreeNode<K,V> hd = null, tl = null;
        do {
            TreeNode<K,V> p = replacementTreeNode(e, null);
            if (tl == null)
                hd = p;
            else {
                p.prev = tl;
                tl.next = p;
            }
            tl = p;
        } while ((e = e.next) != null);
        if ((tab[index] = hd) != null)
            hd.treeify(tab);
    }

}

6、当容量大于阈值时,进行扩容 resize() ,方法会判断树中节点小于6个,就会从红黑树转换为链表 (去树化)

7、扩容过程中不考虑树化,会遍历Hashmap每个bucket里的链表,每个链表可能会被拆分成两个链表,不需要移动的元素置入loHead为首的链表,需要移动的元素置入hiHead为首的链表,然后分别分配给老的buket和新的buket。loHead链表就不需要重新计算hashCode, 这也就是JDK1.8的部分优化点。

源码总结:

  • HashMap 默认初始化容量是 16,最大容量 1 << 30,默认负载因子 0.75f 
  • 负载因子是可以修改的,由构造函数传入 new HashMap<String, String>(16, 0.75f)
  • 扩容是一个特别耗性能的操作,所以最好设定一个初始容量
  • 链表树化 需满足两个条件:链表长度大于等于8、数组桶容量大于64,否则只是扩容,不会树化
  • JDK8 把过长的链表优化为红黑树结构,以此让定位元素的时间复杂度优化近似于O(logn),提升元素查找的效率
  • HashMap是线程不安全的

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
HashMapJava 中非常重要的数据结构之一,它实现了 Map 接口,提供了快速的键值对的查找和存储功能。下面是 HashMap源码分析: 1. 数据结构 HashMap 内部实现了一个数组,每个数组元素是一个单向链表,称为桶(bucket)。当我们向 HashMap 中添加一对键值对时,会根据键的哈希值(hashcode)计算出该键值对应该存储在哪个桶中。如果该桶中已经有了该键值对,就将该键值对添加到桶的末尾(Java 8 中是添加到桶的头部),否则就创建一个新的节点添加到桶的末尾。 2. 哈希冲突 如果两个键的哈希值相同,就称为哈希冲突。HashMap 采用链表法解决哈希冲突,即将哈希值相同的键值对存储在同一个桶中,通过单向链表组织起来。当我们根据键查找值时,先根据键的哈希值找到对应的桶,然后遍历该桶中的链表,直到找到目标键值对或者链表为空。 3. 扩容机制 当 HashMap 中的键值对数量超过了桶的数量的时候,就需要对 HashMap 进行扩容。扩容会重新计算每个键值对的哈希值,并将它们存储到新的桶中。Java 8 中,HashMap 的扩容机制发生了一些变化,采用了红黑树等优化方式。 4. 线程安全 HashMap 是非线程安全的,如果多个线程同时操作同一个 HashMap,就有可能导致数据不一致的问题。如果需要在多线程环境下使用 HashMap,可以使用 ConcurrentHashMap。 以上就是 HashMap源码分析,希望对你有所帮助。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值