HashMap底层原理全解析

作为面试中的高频题目,我相信每一个java程序员都有必要搞懂HashMap的底层原理和实现细节,废话不多说直接开撸。

首先简单说一下HashMap的实现原理:

首先有一个Node<k,v>类型的数组,当添加一个键值对(key-value)时,首先计算元素key的hash值,以此确定插入数组中的位置,如果该哈希值对应的位置已经有元素了,那么使用equals对比他们的key,如果相同则覆盖其value,不同则添加到该元素的后面,这样就形成了链表,同一个链表每个元素的hash值是相通的。当链表的长度太长时会把链表转化为红黑树,这样大大提升了查询的效率。

所以HashMap底层的数据结构图是这样的:

                                                       hashmap数据结构图

然后让我们来看源码

1.首先是成员变量部分

    
    //默认初始容量 - 必须是 2 的幂.
    static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
    //最大容量  
    static final int MAXIMUM_CAPACITY = 1 << 30;
    //负载因子(填充比),如果Node数组使用率超过0.75则进行扩容  
    static final float DEFAULT_LOAD_FACTOR = 0.75f;
    //当Node数组的某一位链表长度大于该值,则将链表结构转化为红黑树
    static final int TREEIFY_THRESHOLD = 8;
    //当红黑树的节点数小于6时,红黑树还原为链表
    static final int UNTREEIFY_THRESHOLD = 6;
    //当Node数组的长度小于该值时,即使链表长度大于8,也不会将链表转化为红黑树,而是进行扩容
    static final int MIN_TREEIFY_CAPACITY = 64;
    //存储元素的数组
    transient Node<k,v>[] table;
    transient Set<map.entry<k,v>> entrySet;
    //存放元素的个数
    transient int size;
    //被修改的次数fast-fail机制
    transient int modCount;
    //临界值 当实际大小(容量*填充比)超过临界值时,会进行扩容 
    int threshold;
    final float loadFactor;

 DEFAULT_LOAD_FACTOR 负载因子(默认值0.75):负载因子的作用是如果数组的使用率很高,那么链表(红黑树)的长度(高度)就会很长,这样查找的效率就会很低,扩容以后,将原来链表数组的每一个链表分成奇偶两个子链表分别挂在新链表数组的散列位置,这样就减少了链表的长度,提高了查询效率。HashMap本来是以空间换时间,所以填充比没必要太大。但是填充比太小又会导致空间浪费。如果关注内存,填充比可以稍大,如果主要关注查找性能,填充比可以稍小。

MIN_TREEIFY_CAPACITY 最小树化容量(默认值64):前面提到了1.8之后,当遇到阈值时,链表会发生树化。但是树化还有一个条件,就是此时的容量必须不小于64。

因为如果桶的数量过少,又发生了严重的哈希碰撞,那么根本问题其实是桶的数量太少了,所以树化的意义就不大,会优先进行扩容。

2.构造函数

HashMap的构造方法有4种,主要涉及到的参数有,指定初始容量,指定填充比和用来初始化的Map

//构造函数1
public HashMap(int initialCapacity, float loadFactor) {
    //指定的初始容量非负
    if (initialCapacity < 0)
        throw new IllegalArgumentException(Illegal initial capacity:  +
                                           initialCapacity);
    //如果指定的初始容量大于最大容量,置为最大容量
    if (initialCapacity > MAXIMUM_CAPACITY)
        initialCapacity = MAXIMUM_CAPACITY;
    //填充比为正
    if (loadFactor <= 0 || Float.isNaN(loadFactor))
        throw new IllegalArgumentException(Illegal load factor:  +
                                           loadFactor);
    this.loadFactor = loadFactor;
    this.threshold = tableSizeFor(initialCapacity);//新的扩容临界值
}
 
//构造函数2
public HashMap(int initialCapacity) {
    this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
 
//构造函数3
public HashMap() {
    this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
 
//构造函数4用m的元素初始化散列映射
public HashMap(Map<!--? extends K, ? extends V--> m) {
    this.loadFactor = DEFAULT_LOAD_FACTOR;
    putMapEntries(m, false);
}

3.哈希值的计算函数

    static final int hash(Object key) {
        int h;
        return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
    }

这里的代码很简单,就是让key对象的哈希值自身和右移16位后的自己,进行异或运算。我们来讨论一下为什么要这样做。

其只要目的有两个,一是通过逻辑运算是哈希值落在数组的下标区间内,第二点也是主要的一点,尽可能的降低哈希碰撞发生的概率。

哈希碰撞会对hashMap的性能带来灾难性的影响。如果多个hashCode()的值落到同一个桶内的时候,这些值是存储到一个链表中的。最坏的情况下,所有的key都映射到同一个桶中,这样hashmap就退化成了一个链表——查找时间从O(1)到O(n)。

原始的哈希值计算出来以后就是32位了,而我们的容量明显不会有这么大,所以需要把原始的哈希值进行运算,使得其在某个固定的区间。比如我们的容量只有16,那么下标就是0-15,这样的话,就必须保证哈希值在此区间。首先最直白的方式肯定是取余,比如对16取余,就可以得到0-15这16种结果,刚好可以放入数组中,但是取余操作的效率很低,所以采用了位运算的方式,其本质上就是一种效率更高的取余。其源码如下:

当进行put操作的时候,底层通过(n-1)&hash这样一个运算,巧妙的对原始哈希值进行了取余运算。n为数组的长度,n-1就会得到一个低位全为1的二进制数,如15(00001111),31(00011111),某个数对这种数进行与操作,很明显高位全为0,低位全保留了原样,从而把范围固定在了0到(n-1)之间。(按位运算方法取余只对2的n次幂-1才适用,所以容量为2的n次幂也是十分关键的)。

但这时候问题就来了,这样就算我的散列值分布再松散,要是只取最后几位的话,碰撞也会很严重。更要命的是如果散列本身做得不好,分布上成等差数列的漏洞,恰好使最后几个低位呈现规律性重复,就无比蛋疼。

右位移16位,正好是32bit的一半,自己的高半区和低半区做异或,就是为了混合原始哈希码的高位和低位,以此来加大低位的随机性。而且混合后的低位掺杂了高位的部分特征,这样高位的信息也被变相保留下来。

4.get函数

    public V get(Object key) {
        Node<K,V> e;
        return (e = getNode(hash(key), key)) == null ? null : e.value;
    }

    final Node<K,V> getNode(int hash, Object key) {
        Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
        if ((tab = table) != null && (n = tab.length) > 0 &&
            (first = tab[(n - 1) & hash]) != null) {
            //先判断是不是链表第一个元素
            if (first.hash == hash && // always check first node
                ((k = first.key) == key || (key != null && key.equals(k))))
                return first;
            //遍历链表或者树找到对应的key
            if ((e = first.next) != null) {
                if (first instanceof TreeNode)
                    return ((TreeNode<K,V>)first).getTreeNode(hash, key);
                do {
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        return e;
                } while ((e = e.next) != null);
            }
        }
        return null;
    }

get(key)方法时获取key的hash值,计算hash&(n-1)得到在链表数组中的位置first=tab[hash&(n-1)],先判断first的key是否与参数key相等,不等就遍历后面的链表找到相同的key值返回对应的Value值即可

5.put函数

    public V put(K key, V value) {
        return putVal(hash(key), key, value, false, true);
    }

final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
        Node<K,V>[] tab; Node<K,V> p; int n, i;
        if ((tab = table) == null || (n = tab.length) == 0)
            n = (tab = resize()).length;
        //如果数组第一位是null,则新建一个节点插入该位置
        if ((p = tab[i = (n - 1) & hash]) == null)
            tab[i] = newNode(hash, key, value, null);
        else {
            Node<K,V> e; K k;
            //看看该节点是不是第一位,是的话就覆盖value
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;
            else if (p instanceof TreeNode)
                //如果该节点是红黑树则调用红黑树的putTreeVal方法
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
            else {
                //遍历链表
                for (int binCount = 0; ; ++binCount) {
                    //将新节点插入链表尾部
                    if ((e = p.next) == null) {
                        p.next = newNode(hash, key, value, null);
                        //如果链表长度大于TREEIFY_THRESHOLD-1
                        //且数组长度大于MIN_TREEIFY_CAPACITY则把链表转化为红黑树
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            treeifyBin(tab, hash);
                        break;
                    }
                    //发现该key的哈希值和自身值一样,则替换对应的value
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    p = e;
                }
            }
            //发现该key的哈希值和自身值一样,则替换对应的value
            if (e != null) { // existing mapping for key
                V oldValue = e.value;
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                afterNodeAccess(e);
                return oldValue;
            }
        }
        ++modCount;
        //判断是否需要扩容
        if (++size > threshold)
            resize();
        afterNodeInsertion(evict);
        return null;
    }

put方法大概分为以下几步:

1.计算key的哈希值,然后调用putVal方法,其参数含义分别为key的哈希值,key,value,如果已存在是否替换;

2.判断数组是否为null或者长度为0,是则n=数组初始大小16,否则为数组长度;

3.判断数组tab[i = (n - 1) & hash]位是否为null,是则在该位置新建一个节点;不是则进入第四步;

4.先看该新增节点是不是链表第一位,如果是则判断值是否需要替换,不是则进入第五步;

5.判断该节点是树还是链表,如果是树则调用树的putTreeVal方法放置元素,否则进入第六步;

6.遍历链表将该节点放入链表末尾,判断是否需要转换为红黑树;

7.对一样key和哈希值的节点的value1进行替换;

8.判断是否需要扩容。

6.扩容函数resize()

final Node<K,V>[] resize() {
        Node<K,V>[] oldTab = table;
        int oldCap = (oldTab == null) ? 0 : oldTab.length;
        int oldThr = threshold;
        int newCap, newThr = 0;
        //判断数组是否为空
        if (oldCap > 0) {
            if (oldCap >= MAXIMUM_CAPACITY) {
                threshold = Integer.MAX_VALUE;
                return oldTab;
            }
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                     oldCap >= DEFAULT_INITIAL_CAPACITY)
                //新的临界值扩大一倍
                newThr = oldThr << 1; // double threshold
        }
        //判断是否是第一次初始化数组
        else if (oldThr > 0) // initial capacity was placed in threshold
            newCap = oldThr;
        else {               // zero initial threshold signifies using defaults
            newCap = DEFAULT_INITIAL_CAPACITY;
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
        }
        if (newThr == 0) {
            float ft = (float)newCap * loadFactor;
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                      (int)ft : Integer.MAX_VALUE);
        }
        threshold = newThr;
        @SuppressWarnings({"rawtypes","unchecked"})
            Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
        //开始初始化新数组中的数据
        table = newTab;
        if (oldTab != null) {
            for (int j = 0; j < oldCap; ++j) {
                Node<K,V> e;
                if ((e = oldTab[j]) != null) {
                    oldTab[j] = null;
                    //该位置只有一个元素,直接赋值
                    if (e.next == null)
                        newTab[e.hash & (newCap - 1)] = e;
                    //该位置有多个元素,判断结构是链表还是红黑树
                    else if (e instanceof TreeNode)
                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                    else { // preserve order
                        Node<K,V> loHead = null, loTail = null;
                        Node<K,V> hiHead = null, hiTail = null;
                        Node<K,V> next;
                        do {
                            next = e.next;                            
                  //e.hash&oldCap为偶数一队,e.hash&oldCap为奇数一对
                            if ((e.hash & oldCap) == 0) {
                                if (loTail == null)
                                    loHead = e;
                                else
                                    loTail.next = e;
                                loTail = e;
                            }
                            else {
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);
                        //lo队不为null,放在新表原位置
                        if (loTail != null) {
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
                        //hi队不为null,放在新表j+oldCap位置
                        if (hiTail != null) {
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
        return newTab;
    }

  • 6
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
HashMap底层实现原理1.8版本主要涉及到哈希算法、数组和链表/红黑树的数据结构以及扩容机制。首先,hashcode()方法会根据对象的特定规则生成一个哈希码,用于确定对象在数组中的存储位置。如果两个对象的equals()方法返回true,则它们的哈希码必须相等。 HashMap内部使用一个Entry数组来存储键值对,数组的每个位置称为桶。每个Entry对象包含键值对的信息,以及一个指向下一个Entry的指针。当向HashMap中添加键值对时,根据键的哈希码找到对应的桶,如果该桶为空,则直接将键值对存入该桶;如果不为空,则遍历链表(或者当链表长度达到一定阈值时,将链表转换为红黑树),找到合适的位置插入新的键值对。 在1.8版本中,当链表长度超过8,则将链表转换为红黑树,这是为了提高查询效率。红黑树的查询时间复杂度为O(logN),相比链表的O(N)更低。当红黑树节点数量小于6时,又会将红黑树转换回链表,以节省内存。 HashMap还有一个重要的机制是扩容。当哈希表的大小超过了负载因子与桶的数量的乘积时,就会自动触发扩容操作。扩容会创建一个更大的数组,并将所有的键值对重新分配到新数组的桶中,这个过程是比较耗时的。扩容的目的是为了减少哈希冲突,提高查询性能。 总的来说,HashMap底层实现原理1.8版本主要依靠哈希算法、数组和链表/红黑树的数据结构以及扩容机制来实现高效的键值对存储和检索。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [1.8版本HashMap底层原理分析](https://blog.csdn.net/m0_61750910/article/details/123204007)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值