HashMap源码分析及面试常见知识点分享

        今日闲来无事,撸了一把jdk 1.8HashMap源码的源码,随手记录一番,便于后期复习也可以更好的消化吸收,如果有理解不周,不吝赐教。如果对 集合上不太了解的同学可以先参考助力掌握常用Java集合了解一波,希望你有所收获。本文从HashMap的一些重要参数说起。

  •   HashMap重要参数

   /**
     * The default initial capacity - MUST be a power of two.
	 * 默认的初始化容量,必须是2的整数倍,默认16,也就是默认会创建 16 *个箱子,箱子的个数不能太多或太少。如果太少,很容易触发扩容,如果太多,遍历哈希表会比较慢。
     */
      static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16

    /**
     *最大容量为2的30次方,一般情况下只要内存够用,哈希表不会出现问题。
     */
      static final int MAXIMUM_CAPACITY = 1 << 30;

    /**
     *默认的负载因子。因此初始情况下,当键值对的数量大于 16 * 0.75 = 12 时,就会触发扩容
     */
      static final float DEFAULT_LOAD_FACTOR = 0.75f;

    /**
     *上文说过,如果哈希函数不合理,即使扩容也无法减少箱子中链表的长度,因此 Java *的处理方案是当链表太长时,转换成红黑树。这个值表示当某个箱子中,链表长度大于 8 *时,有可能会转化成树。
     */
      static final int TREEIFY_THRESHOLD = 8;

    /**
     * 在哈希表扩容时,如果发现链表长度小于 6,则会由树重新退化为链表。
     */
      static final int UNTREEIFY_THRESHOLD = 6;

    /**
     * 在转变成树之前,还会有一次判断,只有键值对数量大于 64 *才会发生转换。这是为了避免在哈希表建立初期,多个键值对恰好被放入了同一个链表中而导致不必要的*转化。
     */
      static final int MIN_TREEIFY_CAPACITY = 64;

       这里面有些参数比如说为要设置为2的整数倍,为什么负载因子达到8的时候要转为红黑树等等,勿急,会在下文介绍。

      这里面有两个参数影响HashMap性能:初始容量和加载因子。默认初始容量是16,加载因子是0.75。容量是哈希表中桶(Entry数组)的数量,初始容量只是哈希表在创建时的容量。加载因子是哈希表在其容量自动增加之前可以达到多满的一种尺度。当哈希表中的条目数超出了加载因子与当前容量的乘积时,通过调用 rehash 方法将容量翻倍。

  • HashMap构造方法

 HashMap的构造方法有以上四种一、二、四都比较简单,点进去看一下就明白了,重要点来分析一下第三种构造方法。毕竟,上面也写道初始容量和加载因子两个参数会影响HashMap性能,细谈究竟怎样影响的。

/**
  * Constructs an empty <tt>HashMap</tt> with the specified initial
  * capacity and load factor.
  * 根据初始化容量和加载因子构造一个空的HashMap
  * @param  initialCapacity the initial capacity
  * @param  loadFactor      the load factor   
  * @throws IllegalArgumentException if the initial capacity is negative
  *         or the load factor is nonpositive
  */
    public HashMap(int initialCapacity, float loadFactor) {
        if (initialCapacity < 0)
            throw new IllegalArgumentException("Illegal initial capacity: " +
                                               initialCapacity);
        //如果入参初始化容量大于设定的最大值,就将其设置为最大值。
		if (initialCapacity > MAXIMUM_CAPACITY)
            initialCapacity = MAXIMUM_CAPACITY;
			
        if (loadFactor <= 0 || Float.isNaN(loadFactor))
            throw new IllegalArgumentException("Illegal load factor: " +
                                               loadFactor);
        this.loadFactor = loadFactor;
        this.threshold = tableSizeFor(initialCapacity);
    }

        主要为初始化容量和负载因子进行初始化,仔细阅读发现这段并不难,但是我们到结尾处发现为初始化容量赋值的是tableSizeFor()的返回值,那它又对我们传入参数initialCapacity做了什么操作呢??? 

  • 细究tableSizeFor()

    //初始化临界值的具体实现
    static final int tableSizeFor(int cap) {
    int n = cap - 1;
     n |= n >>> 1;//现将n无符号右移1位,并将结果与右移前的n做按位或操作,结果赋给n;
     n |= n >>> 2;
     n |= n >>> 4;
     n |= n >>> 8;
     n |= n >>> 16;
     //中间过程的目的就是使n的二进制数的低位全部变为1,比如10,11变为11,100,101,110,111变为 
     111;
     return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
     }

        看到这里,想大家都明白了吧,这个方法在结果上的体现就是,检查所传的参数是否为2的幂次方,且不能为负数(负数变为1),且不能超过常量MAXIMUM_CAPACITY(超过变为MAXIMUM_CAPACITY),如果不为2的幂次方,将其变为,比cap大的最小的2的幂。为什么变为2的次幂而不是直接设置为我们传入的值呢?同样,勿急(?),会在下文有详细说明。 

这边我们来分析下上述代码的详细过程

先来分析有关n位操作部分:先来假设n的二进制为01xxx...xxx。接着
对n右移1位:001xx...xxx,再位或:011xx...xxx
对n右移2为:00011...xxx,再位或:01111...xxx
此时前面已经有四个1了,再右移4位且位或可得8个1
同理,有8个1,右移8位肯定会让后八位也为1。
综上可得,该算法让最高位的1后面的位全变为1。
最后再让结果n+1,即得到了2的整数次幂的值了。
现在回来看看第一条语句:
int n = cap - 1;
  让cap-1再赋值给n的目的是另找到的目标值大于或等于原值。例如二进制1000,十进制数值为8。如果不对它减1而直接操作,将得到答案10000,即16。显然不是结果。减1后二进制为111,再进行操作则会得到原来的数值1000,即8。
      这种方法的效率非常高,可见Java8对容器优化了很多,很强。

上面是初始化过程,接下来我们进行重头戏,上面遗留的问题也会在这里有彩蛋,仔细阅读,结合代码效果更佳。

  • HashMap的put过程

废话不多说,直接上代码,有详细注解,仔细寻找彩蛋吆,也有面试官喜欢问的一些问题也有体现,为了节约大家的时间,偷偷提示下注释拓展下面都是面试官喜欢问的奥。

HashMap的put过程
    **
     * Associates the specified value with the specified key in this map.
     * If the map previously contained a mapping for the key, the old
     * value is replaced.
     *将key和value联系起来,如果map包含一个映射关于这个key,旧的值将会被替换
	 *
     * @param key key with which the specified value is to be associated
	              key联系了一个确定的值
     * @param value value to be associated with the specified key
	                值被联系到一个确定的key
     * @return the previous value associated with <tt>key</tt>, or
     *         <tt>null</tt> if there was no mapping for <tt>key</tt>.
     *         (A <tt>null</tt> return can also indicate that the map
     *         previously associated <tt>null</tt> with <tt>key</tt>.)
	 *   返回先前key关联的值,如果key之前没有映射返回一个null值
	 *
	 *
     */
	 public V put(K key, V value) {
        return putVal(hash(key), key, value, false, true);
      }
    /**
     * Implements Map.put and related methods.
     *
     * @param hash hash for key
	 *             key的hash值
     * @param key the key
	 *             key
     * @param value the value to put
	 *              被put的值
     * @param onlyIfAbsent if true, don't change existing value
	 *        如果为真,不改变存在的值
     * @param evict if false, the table is in creation mode.
	 *        如果为false,表处于创建过程中
     * @return previous value, or null if none
	 *        返回以前的值,如果没有返回null
     */
	  final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
        Node<K,V>[] tab;//hash表 
		Node<K,V> p; //解决hash冲突链表
		int n, i;
		//如果表为null或者表的长度为0,进行resize()扩容,并将其长度赋给n
        if ((tab = table) == null || (n = tab.length) == 0)
            n = (tab = resize()).length;
		/*hash值和hash表长度减一进行&运算
		 *拓展:
   		 *为什么要和tab-1进行&运算
		 *1>效率问题
		 *在底层的执行效率而言来说:加减法>乘除法>%运算  由此可见%运算效率极低,所以采用&运算
		 *2>
		 *数组越界问题
		 *hash值和n-1进行&运算,它的取值范围只会在0~n-1之间
		 *举例:
		 *hash: 5634276829768796
		 *tab初始化长度为16 则:n-1为15   
		 *n-1二进制:0000 0000 0000 1111
		 *        10011100010111110111011010111111101111011000110 0011 0101 0100 1100
		 * &运算                           前面均为0              0000 0000 0000 1111
		 * 结果:               只与后四位有关:要么为全0要么为全1,保证了数据越问题
		 **/
        if ((p = tab[i = (n - 1) & hash]) == null)
		//如果tab[i]为空,说明没有hash冲突,直接插入即可
            tab[i] = newNode(hash, key, value, null);
        else {
		//有hash冲突
            Node<K,V> e; K k;
			/**
			  *1)进行当前hash值和传入的hash值是否相等并且判断他们的key值是否相等
              *2)判断传入key值是否为空并且判断当前key和传入key是否相等
			  *两条件若满足其一说明,当前节点key和传入的key值发生hash冲突
			  *将这个当前节点赋值给变量Node<K,V> p;
			  *
			if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;
				/**
				  *扩展:
				  *由于jdk1.8引入红黑树的数据结构
				  *why:
				  *解决链表的缺点:
				  *如果链表长度过长,查找元素效率低,引入红黑树提高查找效率
				  *
				  *判断当前节点是否是树节点,插入红黑树
				  **/
            else if (p instanceof TreeNode)
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
            else {
			    //说明是链表,for循环找到最后一个节点,进行插入
                for (int binCount = 0; ; ++binCount) {
                    if ((e = p.next) == null) {
                        p.next = newNode(hash, key, value, null);
						/**
						  *如果链表长度超过设置的阈值,将链表转为红黑树,默认为8
						  *扩展:
						  *为什么设置为8呢?
						  *这里面涉及到一个概率问题,设计人员根据大量的测试发现插入的元素进入
						  *同一个桶的概率符合泊松分布(自行百度了解,不做概述),当链表长度达到
						  *8的时候几乎不会再有元素进入桶中,除非数据量特别大的情况下。
						  *所以说,在数据量不是特别大的情况下,引入红黑树进行优化链表的一些缺点,
						  *并没有提升很大的效率。
						  **/
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
						    //转化为红黑树
                            treeifyBin(tab, hash);
                        break;
                    }
					//判断当前插入的值是否存在,如果存在跳出当前循环
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    p = e;
                }
            }
			//当节点不为空的时候说明有key有映射(对应值)
            if (e != null) { // existing mapping for key
                V oldValue = e.value;
				//当值为空时直接插入
                if (!onlyIfAbsent || oldValue == null)
                 e.value = value;
				//这个方法是为子类LinkedHashMap服务的,保证元素的插入顺序
                afterNodeAccess(e);
                return oldValue;
            }
        }
		//modCount记录被修改的次数
        ++modCount;
		/**
          *拓展
		  *如果数组长度大于数组扩容的阈值(默认为加载因子*默认数组长度),进行扩容
		  *加载因子loadFactor:默认为0.75
		  *加载因子为什么设为0.75?
		  *假如说加载因子设为0.5,空间利用率低,会减少hash冲突,提高查询效率,节省查找时间
		  *假如说加载因子设为1,空间利用率会提高,但相应hash冲突会增加,增加时间复杂度
		  *所以说出于时间和空间的综合考虑最终定为0.75
		  */
        if (++size > threshold)
            resize();
		//这个方法是为子类LinkedHashMap服务的,用来回调移除最早放入Map的对象
        afterNodeInsertion(evict);
        return null;
    }

      好了HashMap的put方法我们就看到这里,里面都有详细注解,可能闲余时间会对重要问题进行总结,后补。

      接下来我们看看HashMap的一个扩容问题,在jdk1.7中我们都知道在并发情况下,HashMap会出现循环链表问题,是线程不安全的,jdk1.8对其进行了优化,是如何优化的呢?仔细阅读下文源码,关于jdk1.7的循环链表问题,自行百度,这里不做称述,后期如有空闲再来分享。

      再来看看在put过程中它是如何计算hash值的

  • HashMap中hash(Object key)的原理

 static final int hash(Object key) {
        int h;
        return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
    }


    相信基本都能看懂,是不是很简单,但是估计知道这一步(h = key.hashCode()) ^ (h >>> 16)原因的人很少。

首先这个方法的返回值还是一个哈希值。为什么不直接返回key.hashCode()呢?还要与 (h >>> 16)异或。

讲到这里还要看一个方法indexFor,在jdk1.7中有indexFor(int h, int length)方法。jdk1.8里没有,但原理没变。下面看下1.7源码
1.8中用tab[(n - 1) & hash]代替但原理一样。
static int indexFor(int h, int length) {
    return h & (length-1);
}
这个方法返回值就是数组下标。我们平时用map大多数情况下map里面的数据不是很多。这里与(length-1)相&,
但由于绝大多数情况下length一般都小于2^16即小于65536。所以return h & (length-1);结果始终是h的低16位与(length-1)进行&运算。如下例子(hashcode为四字节)

例如1. 
length = 8;  (length-1) = 7;转换二进制为111;
hashcode = 78897121 转换二进制:100101100111101111111100001
                        0000 0100 1011 0011 1101 1111 1110 0001

&运算
   0000 0000 0000 0000 0000 0000 0000 0111
=  0000 0000 0000 0000 0000 0000 0000 0001 (就是十进制1,所以下标为1)
由于和(length-1)运算,length 绝大多数情况小于2的16次方。所以始终是hashcode 的低16位参与运算。要是高16位也参与运算,会让得到的下标更加散列。
所以这样高16位是用不到的,如何让高16也参与运算呢。所以才有hash(Object key)方法。让他的hashCode()和自己的高16位^运算。所以(h >>> 16)得到他的高16位与hashCode()进行^运算。
重点来了,为什么用^:因为&和|都会使得结果偏向0或者1 ,并不是均匀的概念,所以用^。
这就是为什么有hash(Object key)的原因。

  • HashMap的resize()方法

resize()扩容
	/**
     * Initializes or doubles table size.  If null, allocates in
     * accord with initial capacity target held in field threshold.
     * Otherwise, because we are using power-of-two expansion, the
     * elements from each bin must either stay at same index, or move
     * with a power of two offset in the new table.
     *
	 *初始化或者将表加倍也就是扩展为原来的两倍。
	 *如果表是空的,通过初始化容量来设置一个符合阈值的初始化表
	 *否则,就进行二倍扩展
	 *
     * @return the table
     */
    final Node<K,V>[] resize() {
	    //将当前表赋值给oldTab
        Node<K,V>[] oldTab = table;
		//oldCap:扩展前表的容量
        int oldCap = (oldTab == null) ? 0 : oldTab.length;
		//oldThr:扩展前表的加载因子
        int oldThr = threshold;
        int newCap, newThr = 0;
        if (oldCap > 0) {
            if (oldCap >= MAXIMUM_CAPACITY) {//扩容前的数组大小如果已经达到最大(2^30)了
               threshold = Integer.MAX_VALUE;//修改阈值为int的最大值(2^31-1),这样以后就不会扩容了
               return oldTab;
            }
			/**
			  *没超过最大值,就扩充为原来的2倍
			  *MAXIMUM_CAPACITY:最大容量
			  *DEFAULT_INITIAL_CAPACITY:默认初始化容量
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                     oldCap >= DEFAULT_INITIAL_CAPACITY)
				扩充为原来的2倍
                newThr = oldThr << 1; // double threshold
		//说明原来的容量为0
        else if (oldThr > 0) 
            newCap = oldThr;// 初始容量设置为阈值
        else {              
            newCap = DEFAULT_INITIAL_CAPACITY; // 初始阈值为零表示使用默认值
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
        }
		//计算新的resize上限
        if (newThr == 0) {
            float ft = (float)newCap * loadFactor;
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                      (int)ft : Integer.MAX_VALUE);
        }
        threshold = newThr;
        @SuppressWarnings({"rawtypes","unchecked"})
        Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
        table = newTab;
		 //把每个bucket都移动到新的buckets中
        if (oldTab != null) {
		   for (int j = 0; j < oldCap; ++j) {
                Node<K,V> e;
                if ((e = oldTab[j]) != null) {
                    oldTab[j] = null;
                    if (e.next == null)//节点下一个元素为空,直接放入新数组
                        newTab[e.hash & (newCap - 1)] = e;
                    else if (e instanceof TreeNode)//类型为Tree,插入红黑树
                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                    else { //进入链表,此处优化了在并发情况下jdk1.7出现的循环链表问题
                        Node<K,V> loHead = null, loTail = null;
                        Node<K,V> hiHead = null, hiTail = null;
                        Node<K,V> next;
                        do {
						   // 保存下一个节点
                            next = e.next;
							// 原索引
                            if ((e.hash & oldCap) == 0) {
                                if (loTail == null)
                                    loHead = e;
                                else
                                    loTail.next = e;
                                loTail = e;
                            }
							// 原索引+oldCap
                            else {
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);
						//原索引放到bucket里
                        if (loTail != null) {
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
						// 原索引+oldCap放到bucket里
                        if (hiTail != null) {
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
        return newTab;
    }

最后我们再来看看get过程,get元素的过程相对来说是比较简单的。

public V get(Object key) {
        Node<K,V> e;
        return (e = getNode(hash(key), key)) == null ? null : e.value;
    }
	final Node<K,V> getNode(int hash, Object key) {
        Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
		//当前下表是否有空
        if ((tab = table) != null && (n = tab.length) > 0 &&
            (first = tab[(n - 1) & hash]) != null) {
			//当前key是否是要查找的key
            if (first.hash == hash && // always check first node
                ((k = first.key) == key || (key != null && key.equals(k))))
                return first;
				//如果不是找下一个
            if ((e = first.next) != null) {
			     //是否是树节点
                if (first instanceof TreeNode)
                    return ((TreeNode<K,V>)first).getTreeNode(hash, key);
                do {
				    //链表 往下循环依次查找
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        return e;
                } while ((e = e.next) != null);
            }
        }
		//没有找到
        return null;
    }

没有多复杂,仔细看看就明白了。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值