hashmap containsvalue时间复杂度_源码修炼笔记之HashMap源码解析

HashMap高频面试题

HashMap备受面试官的青睐,笔者几乎每次面试都会遇到关于HashMap的问题,整理出来一些,供大家自查对HashMap的掌握程度。

  • HashMap 在 JDK1.8 中做了哪些优化?
  • 简述一下HashMap中get和put的基本过程;
  • HashMap在什么情况下会扩容?
  • HashMap为什么采用红黑树而不是其他的平衡二叉树?为什么不用跳表?
  • HashMap put操作当存在hash冲突时,新插入的值放在链表头部还是尾部?
  • HashMap扩容过程简述一下?
  • HashMap是如何解决hash冲突的,还了解其他解决hash冲突的方法吗?
  • HashMap是线程安全的吗?在高并发场景下使用HashMap存在什么问题?
  • 为什么Integer或者String比较适合作为HashMap的key?若用自定义的类作为key需要注意什么问题?
  • HashMap、HashTable和CurrentHashMap的区别?
  • 扩容时链表导致死循环?
  • containsKey和containsValue用哪个?性能如何?
  • HashMap中Iterator的便利顺序是什么

HashMap源码解析

成员变量

    //  默认HashMap的初始容量    static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16    //HashMap的最大容量    static final int MAXIMUM_CAPACITY = 1 << 30;    //默认负载因子0.75    static final float DEFAULT_LOAD_FACTOR = 0.75f;    //链表转化为红黑树的阈值    static final int TREEIFY_THRESHOLD = 8;    //红黑树退化为链表的阈值    static final int UNTREEIFY_THRESHOLD = 6;    //链表转化为红黑树的最小HashMap容量条件    static final int MIN_TREEIFY_CAPACITY = 64;    //存储数据的数组    transient Node[] table;    //元素个数    transient int size;    //操作次数    transient int modCount;    int threshold;    //负载因子    final float loadFactor;

构造函数

    public HashMap(int initialCapacity, float loadFactor)     public HashMap(int initialCapacity)     public HashMap()     public HashMap(Map extends K, ? extends V> m) 

HashMap共有四个构造函数:1)指定初始大小和负载因子;2)指定初始大小采用默认负载因子;3)为指定初始大小和负载因子,采用默认负载因子和初始大小;4)通过指定的Map构造新的HashMap。

关于负载因子和初始大小

  • 负载因子表示一个散列表的空间的使用程度,有这样一个公式:initailCapacityloadFactor=HashMap的容量,当HashMap中的元素个数到达initailCapacityloadFactor后,继续插入元素,HashMap会进行自动扩容为原来大小的两倍。负载因子的设置对于HashMap的性能有很大的影响,负载因子的设置是时间和空间的博弈,如果设置很小的负载因子,空间利用率低,存储相同个数的元素需要更多的空间,但是出现hash冲突的概率低,由于hash冲突的概率低,所以查询效率会高一些,反之如果设置比较大的负载因子,空间利用率高,但是出现hash冲突的概率较大,影响HashMap的操作性能。
  • 在使用HashMap时尽量指定合理的初始大小,HashMap的初始大小默认为16,在我们日常使用过程中,有时HashMap中的元素会远小于16,甚至是一个或者两个元素,例如某些sql的传入参数,如果不指定默认初始大小,将会造成内容浪费,如果一个HashMap中会存放大量的元素,未指定初始大小的情况下会产生大量的扩容操作,每次扩容都涉及到大量元素的拷贝,严重影响性能。初始大小尽量设置为2的幂,这与HashMap中通过元素的hash值计算元素在table中的位置相关,后面介绍HashMap的put方法会详解,如果传入的初始大小不是2的幂,HashMap根据传入的参数,计算大于该参数的最小2的幂来作为HashMap的初始大小,所以为了减少程序的计算时间,传入参数最好设置为2的幂。
    public HashMap(int initialCapacity, float loadFactor) {        //判断initialCapacity是否合法        if (initialCapacity < 0)            throw new IllegalArgumentException("Illegal initial capacity: " +                                               initialCapacity);        if (initialCapacity > MAXIMUM_CAPACITY)            initialCapacity = MAXIMUM_CAPACITY;        if (loadFactor <= 0 || Float.isNaN(loadFactor))            throw new IllegalArgumentException("Illegal load factor: " +                                               loadFactor);        this.loadFactor = loadFactor;        //根据设置的初始大小返回2的幂        this.threshold = tableSizeFor(initialCapacity);    }

get方法流程

get方法的流程大致可以包括如下步骤:

  • 判断table不为空,table的长度大于0,对应位置上的第一个元素不为空,如果不满足,则直接返回null;
  • 判断对应位置上的第一个元素的hash值和key的值是否相等,若相等直接返回first;
  • 判断first是否为红黑树节点;
  • 是红黑树节点通过getTreeNode方法获取key对应的值;
  • 若为链表节点,则通过遍历链表节点获取与key对应的节点;
  • 若为链表节点,则通过遍历链表节点获取与key对应的节点;
  • 上述步骤依然未获取key对应的节点,则返回null。

get方法源码如下所示,上述步骤均在源码基础上进行了注释:

    final Node getNode(int hash, Object key) {        Node[] tab; Node first, e; int n; K k;        //判断table不为空,table的长度大于0,对应位置上的第一个元素不为空,如果不满足,则直接返回null        if ((tab = table) != null && (n = tab.length) > 0 &&            (first = tab[(n - 1) & hash]) != null) {            //判断对应位置上的第一个元素的hash值和key的值是否相等,若相等直接返回first            if (first.hash == hash && // always check first node                ((k = first.key) == key || (key != null && key.equals(k))))                return first;            //判断first节点的下一个节点是否为null,若为null直接返回null            if ((e = first.next) != null) {                //判断first是否为红黑树节点                if (first instanceof TreeNode)                    //是红黑树节点通过getTreeNode方法获取key对应的值                    return ((TreeNode)first).getTreeNode(hash, key);                //若为链表节点,则通过遍历链表节点获取与key对应的节点                do {                    if (e.hash == hash &&                        ((k = e.key) == key || (key != null && key.equals(k))))                        return e;                } while ((e = e.next) != null);            }        }        //上述步骤依然未获取key对应的节点,则返回null        return null;    }

put方法流程

put方法的过程相对于get方法要复杂一些,通过分析源码,put方法调用了putVal方法,添加元素的主要逻辑在putVal方法中,添加元素的过程如下图所示:

0e570be6ff9645d916a0aafad3e740cc.png

hashmap的put过程


put方法的源码如下所示,添加元素的步骤均在源码的基础上进行了注释:

final V putVal(int hash, K key, V value, boolean onlyIfAbsent,                   boolean evict) {        Node[] tab; Node p; int n, i;        //table为空,通过reSize方法进行初始化        if ((tab = table) == null || (n = tab.length) == 0)            n = (tab = resize()).length;        //计算插入元素在table中的位置,该位置元素为null,直接添加元素        if ((p = tab[i = (n - 1) & hash]) == null)            tab[i] = newNode(hash, key, value, null);        //若该位置元素不为null,则有hash冲突        else {            //e为对应位置的oldValue            Node e; K k;            //判断该位置第一个元素的hash值与插入元素key的hash值是否相等,相等则e=p            if (p.hash == hash &&                ((k = p.key) == key || (key != null && key.equals(k))))                e = p;            //上述条件不满足,判断p是否为红黑树节点,若为红黑树节点,通过putTreeVal获取e            else if (p instanceof TreeNode)                e = ((TreeNode)p).putTreeVal(this, tab, hash, key, value);            //为链表节点            else {                //遍历链表                for (int binCount = 0; ; ++binCount) {                    //每次判断为e赋值,如果e为null,则在链表中添加元素                    if ((e = p.next) == null) {                        p.next = newNode(hash, key, value, null);                        //链表长度大于8,将链表转化为红黑树                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st                            treeifyBin(tab, hash);                        break;                    }                    //key相等,则返回                    if (e.hash == hash &&                        ((k = e.key) == key || (key != null && key.equals(k))))                        break;                    p = e;                }            }            if (e != null) { // existing mapping for key                V oldValue = e.value;                //onlyIfAbsent为true表示只有该处如果该位置存在值,不替换,为false表示替换旧值                if (!onlyIfAbsent || oldValue == null)                    e.value = value;                //空方法,子类可以实现自己的逻辑,主要给LinkedHashMap用的                afterNodeAccess(e);                return oldValue;            }        }        //操作数+1,用于fail fast        ++modCount;        //判断是否需要进行扩容操作        if (++size > threshold)            resize();        //空方法,子类可以实现自己的逻辑        afterNodeInsertion(evict);        return null;    }

源码中的极致设计思路:

  • HashMap的初始化采用的是延迟加载的方式,最大限度为应用程序节省内存;
  • i = (n - 1) & hash,i表示元素在table中的位置,n表示table的长度,是2的幂,通过这种方式计算元素在table中的位置,可以最大限度的使元素尽量均匀的分布在table中,如table的长度为16,n-1为15,15的二进制表示为“1111”,若n-1为14,n-1的二进制为 “1110”,则有个位置将永远不可能有元素插入。

resize方法流程

resize方法在HashMap中是非常重要的方法,table的初始化和扩容都是通过resize方法完成的,resize的过程大致如下:

  • 判断table是否初始化,若没有初始化,则初始化table;
  • 设置新的容量大小和threshold;
  • 判断是否需要元素拷贝到新table中;
  • 进行元素拷贝,元素拷贝分为普通节点、红黑树节点和链表节点的拷贝;
  • 最后返回新的table。

resize方法源码如下所示,详细过程均在源码的基础进行了注释:

final Node[] resize() {        Node[] oldTab = table;        int oldCap = (oldTab == null) ? 0 : oldTab.length;        int oldThr = threshold;        int newCap, newThr = 0;        //判断原来table的长度        if (oldCap > 0) {            //到达最大长度,无法进行扩容            if (oldCap >= MAXIMUM_CAPACITY) {                threshold = Integer.MAX_VALUE;                return oldTab;            }            //容量和threshold变为原来的两倍,因为都是2的幂,采用移位运算提高效率            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&                     oldCap >= DEFAULT_INITIAL_CAPACITY)                newThr = oldThr << 1; // double threshold        }        //判断oldThr是否大于0,大于0表示初始化时指定了大小        else if (oldThr > 0) // initial capacity was placed in threshold            newCap = oldThr;        //表示初始化时没有指定初始大小,采用默认值        else {               // zero initial threshold signifies using defaults            newCap = DEFAULT_INITIAL_CAPACITY;            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);        }        //设置newThr的值        if (newThr == 0) {            float ft = (float)newCap * loadFactor;            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?                      (int)ft : Integer.MAX_VALUE);        }        //将newThr设置为新的threshold        threshold = newThr;        @SuppressWarnings({"rawtypes","unchecked"})            Node[] newTab = (Node[])new Node[newCap];        table = newTab;        //判断table原来的table是否为null,不为null则需要进行元素拷贝到新的table中        if (oldTab != null) {            //元素拷贝到新table中            for (int j = 0; j < oldCap; ++j) {                Node e;                if ((e = oldTab[j]) != null) {                    //旧元素快速GC                    oldTab[j] = null;                    //e节点上不存在hash冲突,直接在newTable中赋值                    if (e.next == null)                        newTab[e.hash & (newCap - 1)] = e;                    //存在hash冲突且节点为红黑树,通过split方法进行扩容                    else if (e instanceof TreeNode)                        ((TreeNode)e).split(this, newTab, j, oldCap);                   //节点为链表节点                    else { // preserve order                        Node loHead = null, loTail = null;                        Node hiHead = null, hiTail = null;                        Node next;                        do {                            next = e.next;                            if ((e.hash & oldCap) == 0) {                                if (loTail == null)                                    loHead = e;                                else                                    loTail.next = e;                                loTail = e;                            }                            else {                                if (hiTail == null)                                    hiHead = e;                                else                                    hiTail.next = e;                                hiTail = e;                            }                        } while ((e = next) != null);                        if (loTail != null) {                            loTail.next = null;                            newTab[j] = loHead;                        }                        if (hiTail != null) {                            hiTail.next = null;                            newTab[j + oldCap] = hiHead;                        }                    }                }            }        }        return newTab;    }

接下来对元素的拷贝进行分析,普通节点只需简单的赋值操作即可,红黑树是非常复杂的数据结构,关于红黑树本文不作详细介绍,此处主要分析一下链表在扩容时是如何处理的,首先扩容过程中一个链表会被拆分为两个链表,放入新的table中,即如果在oldTable中的位置是j,那这两个链表在newTable中的位置是j和j+oldCap,源码中采用了十分巧妙的方式,过设置四个Node对象进行操作:

Node loHead = null, loTail = null;Node hiHead = null, hiTail = null;

其中loHead和loTail分别指向拷贝到newTable中j位置上链表的头节点和尾节点,hiHead和hiTail则分别指向拷贝到j+oldCap位置上链表的头节点和尾节点,处理过程如图所示:

f09e12b88ce8d3ec171e0bca96253f16.png

链表扩容过程

高频面试题解析

  • HashMap 在 JDK1.8 中做了哪些优化?Entry变为Node;链表变为链表+红黑树的形式等
  • 简述一下HashMap中get和put的基本过程;源码解析中已详细分析
  • HashMap在什么情况下会扩容?源码解析中已详细分析
  • HashMap为什么采用红黑树而不是其他的平衡二叉树?为什么不用跳表?
  • HashMap put操作当存在hash冲突时,新插入的值放在链表头部还是尾部?源码解析中已详细分析,应该是尾部
  • HashMap扩容过程简述一下?源码解析中已详细分析,参考resize过程分析
  • HashMap是如何解决hash冲突的,还了解其他解决hash冲突的方法吗?解决hash冲突的方法主要包括开放寻址法和链表法
  • HashMap是线程安全的吗?在高并发场景下使用HashMap存在什么问题?纵观HashMap的源码,并未出现sychronized、Lock、volatile、CAS等相关技术,HashMap在并发共享的情况下并非是线程安全的,在高并发情况下,HashMap实例作为共享变量读写过程中会出现线程安全问题。
  • 为什么Integer或者String比较适合作为HashMap的key?若用自定义的类作为key需要注意什么问题?这些都是final修饰的不可变类型,自定义类作为key需要重写equals和hashCode方法。
  • HashMap、HashTable和CurrentHashMap的区别?HashMap非线程安全,HashTable线程安全,使用synchronized性能差,CurrentHashMap采用unsafe的CAS操作,即乐观锁,线程安全,性能比HashTable好。
  • 扩容时链表导致死循环?
  • containsKey和containsValue用哪个?性能如何?containsKey在不存在hash冲突的情况下,时间复杂度为o(1),而containsValue时间复杂度为o(n)。
  • HashMap中Iterator的便利顺序是什么这个是我一个朋友遇到的面试题,以前还真没有仔细考虑过,其实源码中非常简单,iterator分为KeyIterator和ValueIterator都是按照table的顺序进行遍历的。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值