JDK1.8中HashMap源码简要分析

        HashMap不论是在工作还是面试中是都会遇见的,并且本身也是非常重要的,下面我们来看看其内部的真容。

一、整体轮廓

        自己去看这类数据结构时,不论是map、set、list,首先去了解他们的存储的结构,自身的一些属性,相应的常用方法。那我们这里也是一样,首先把这三个方面过一眼。

1、数据存储方式

        jdk1.8中的HashMap相比1.7中数据的存储方式发生了一些改变,下面这幅图就是1.8中HashMap的数据存储方式。
在这里插入图片描述
        首先,数据在map中是通过节点对象来描述的,如果之前了解过List的应该能清楚节点的含义。在HashMap中有一个节点数组,这个就相当于原始的坑位,有数据存储时会根据相应的算法计算出这个节点对象该入几号坑。
        但是这个算法在计算时,有可能下一个数据存储时会计算出的坑位里面已经有人了,那这个时候1.7和1.8就有区别了,1.7中则会以链表的形式将这个数据拼接在原来坑位中节点的后面,关联起来。在1.8中,同样也是会以链表的形式关联,但是链表过长的话会影响到查询速度,所以1.8就做了一个改变,当链表长度超过一个阈值时,就会将链表转换成红黑树结构,就是上面这幅图,提升查询速度。
        所以,你会在1.8的HaspMap中看到两个节点类:

  • Node:链表对应的节点类
static class Node<K,V> implements Map.Entry<K,V> {
    final int hash;
    final K key;	// 数据的key
    V value;		// 保存实际数据:value
    Node<K,V> next;
    ....
 }
  • TreeNode:红黑树对应的节点类,Node的子类
static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {
    TreeNode<K,V> parent;  // red-black tree links
    TreeNode<K,V> left;
    TreeNode<K,V> right;
    TreeNode<K,V> prev;    // needed to unlink next upon deletion
    boolean red;
    ...
}
2、重要属性
    /**
     * 节点数组   
     */
     
    transient Node<K,V>[] table;
	/**
	 * 初始的节点数组table的长度,默认16(值必须为2的整数幂)
	 */
    static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16

    /**
     * 节点数组table的最大长度,2^30次方
     */
    static final int MAXIMUM_CAPACITY = 1 << 30;

    /**
     * 默认的加载因子,与数组扩容有关
     */
    static final float DEFAULT_LOAD_FACTOR = 0.75f;

    /**
     * 链表树型化的阈值
     */
    static final int TREEIFY_THRESHOLD = 8;

    /**
     * 树型结构转为链表的阈值(树型结构中长度小于这个值时又会转成List)
     */
    static final int UNTREEIFY_THRESHOLD = 6;

    /**
     * 需要树型化时table的最小容量(长度)
     */
    static final int MIN_TREEIFY_CAPACITY = 64;

 	/**
     * table发生扩容的阈值
     */
    int threshold;

	/**
     * table发生扩容的阈值
     */

	/**
	 * 加载因子(上面有个默认的,是静态属性)
	 */
     final float loadFactor;

上面这些属性待会再后面会一一涉及到。

3、主要方法
  • 构造方法
  • get()
  • put()
  • resize()
二、源码分析
1、初始化

最常见的构造方法HashMap()中只是对loadFactor进行了赋值0.75。后两个构造函数可以自定义table的初始容量和加载因子。

    public HashMap() {
        this.loadFactor = DEFAULT_LOAD_FACTOR; // 初始化加载因子0.75
    }
    
    public HashMap(int initialCapacity) {
        this(initialCapacity, DEFAULT_LOAD_FACTOR);
    }

    public HashMap(int initialCapacity, float loadFactor) {
    	// 首先判断初始容量和加载因子是否
        if (initialCapacity < 0)
            throw new IllegalArgumentException("Illegal initial capacity: " +
                                               initialCapacity);
        if (initialCapacity > MAXIMUM_CAPACITY)
            initialCapacity = MAXIMUM_CAPACITY;
        if (loadFactor <= 0 || Float.isNaN(loadFactor))
            throw new IllegalArgumentException("Illegal load factor: " +
                                               loadFactor);
        this.loadFactor = loadFactor; // 初始化加载因子,传入的值
        this.threshold = tableSizeFor(initialCapacity); // 计算出数组扩容的容量
    }
/**
* ,例如3->4,7->8,8->8
*/
static final int tableSizeFor(int cap) {
    int n = cap - 1;
    n |= n >>> 1;
    n |= n >>> 2;
    n |= n >>> 4;
    n |= n >>> 8;
    n |= n >>> 16;
    return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}

在第三个构造方法中有个tableSizeFor()方法,这个方法是在自己指定table初始容量时,通过传入的自定义容量,计算出扩容的临界值,且是满足2的整数幂中的最小值,为什么是2的幂次方,这个主要跟后面计算key的位置所采用的算法有关。这里可以看到三个构造方法都没有初始化table,都是在第一次插入数据时才会初始化table。

2、put方法

插入数据时,这里面涉及到了数据存放位置的计算、链表与树的转换、数组的扩容。这里以

    public V put(K key, V value) {
    	// 计算出key的hash值,调用putVal方法,这里是通过定义得hash()方法进行处理后得到hash值
        return putVal(hash(key), key, value, false, true);
    }
  
    final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
        Node<K,V>[] tab; Node<K,V> p; int n, i;
        if ((tab = table) == null || (n = tab.length) == 0) // // 通过上面构造方法的阅读我们知道,第一次存入数据时table为null
            n = (tab = resize()).length; // 所以会执行resize()方法初始化table
        // 当不是第一次存入数据时,会结合key的hash值计算位置(下标),
        // (n - 1) & hash相当于就是取模,n就是table的长度,在上个if中赋值的
        if ((p = tab[i = (n - 1) & hash]) == null) 
        	// 如果当前位置为null,则可将数据直接放到table的这个位置
            tab[i] = newNode(hash, key, value, null);
        else { // 当前位置不为null
            Node<K,V> e; K k;
             // p就是当前位置table中已存在的节点
            // 首先判断插入的key跟当前list或者tree的根节点(p)的key是否相同
            // 这里判断了相同的依据是两个key的hash值、地址、以及文本值      
            // 如果key相同了,就会将新的value数据覆盖原来的,不去创建新节点了(在最下面那个if中处理的)     
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;
            else if (p instanceof TreeNode) // 否则判断是否为树的节点类型,是则添加到树中,同样也会判断key时候存在,存在就会返回对应节点,然后在下面替换value
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
            else {
            	// 最后如果不是树型的节点,那就说明是list,遍历list将数据插入list的尾部,同样也会判断key时候存在 
                for (int binCount = 0; ; ++binCount) {
                    if ((e = p.next) == null) {
                        p.next = newNode(hash, key, value, null);
                        // binCount = 7时,相当于当前list长度为8了
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            treeifyBin(tab, hash); // 这里就会将链表转换成红黑树,但是还有个条件就是table长度要>=64,否则就回去扩容table,在扩容的时候会重新打散节点计算位置,这样相当于降低了list或者树的深度,比直接转换成树查询效率更高
                        break;
                    }
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    p = e;
                }
            }
            // 如果key相同了,就会将新的value数据覆盖原来的
            if (e != null) { // existing mapping for key
                V oldValue = e.value;
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                afterNodeAccess(e);
                return oldValue;
            }
        }
        ++modCount;
        // 如果当前table数组存在的节点(不是总的节点,list或者树中)的达到了扩容的阈值,则会进行数组扩容
        if (++size > threshold)
            resize();
        afterNodeInsertion(evict);
        return null;
    }

hash()
这个方法主要就是将key的hash值做了进一步的处理,为了降低存入数据时位置的冲突

    static final int hash(Object key) {
        int h;
        // 原本hash跟hash右移16位进行异或
        return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
    }

treeifyBin()
将list转换成树

final void treeifyBin(Node<K,V>[] tab, int hash) {
        int n, index; Node<K,V> e;
        // 这里table的长度如果小于MIN_TREEIFY_CAPACITY(64)是不会转换成树,直接扩容
        if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
            resize();
        else if ((e = tab[index = (n - 1) & hash]) != null) {
            // ....
        }
    }

resize()
数组扩容的方法,这里面会将table的容量翻倍,同时扩容的阈值也是翻倍,当扩容是table中有节点,会重新分配节点的位置

final Node<K,V>[] resize() {
        Node<K,V>[] oldTab = table;
        int oldCap = (oldTab == null) ? 0 : oldTab.length;
        int oldThr = threshold;
        int newCap, newThr = 0;
        if (oldCap > 0) {
            if (oldCap >= MAXIMUM_CAPACITY) {
                threshold = Integer.MAX_VALUE;
                return oldTab;
            }
            // 当table不为null扩容时,newCap = oldCap << 1表示扩容为原来2倍
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY)
                newThr = oldThr << 1; // 阈值翻倍
        }
        else if (oldThr > 0) // initial capacity was placed in threshold
            newCap = oldThr;
        else { 
        	// 还记得在第一次存入数据时调用过当前方法,那这里就会执行这个else,上面两个判断都不满足
            newCap = DEFAULT_INITIAL_CAPACITY; // 默认容量16
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); // 扩容阈值0.75*16=12
        }
        if (newThr == 0) {
            float ft = (float)newCap * loadFactor;
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                      (int)ft : Integer.MAX_VALUE);
        }
        threshold = newThr; // 赋值新的扩容阈值
        @SuppressWarnings({"rawtypes","unchecked"})
        Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; // 创建节点数组
        table = newTab; // 赋值给table
		// 这里就是在table不为空时扩容,下面就会重新计算节点的位置
        if (oldTab != null) {
            for (int j = 0; j < oldCap; ++j) {
                Node<K,V> e;
                if ((e = oldTab[j]) != null) {
                    oldTab[j] = null;
                    if (e.next == null)
                        newTab[e.hash & (newCap - 1)] = e;
                    else if (e instanceof TreeNode)
                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                    else { // preserve order
                        Node<K,V> loHead = null, loTail = null;
                        Node<K,V> hiHead = null, hiTail = null;
                        Node<K,V> next;
                        do {
                            next = e.next;
                            if ((e.hash & oldCap) == 0) {
                                if (loTail == null)
                                    loHead = e;
                                else
                                    loTail.next = e;
                                loTail = e;
                            }
                            else {
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);
                        if (loTail != null) {
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
                        if (hiTail != null) {
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
        return newTab;
    }
3、get

分析了put方法后,get方法就非常简单了,里面还是通过相同的算法计算key的目标位置,然后加以判断,从而获取数据

    public V get(Object key) {
        Node<K,V> e;
        // hash(key)还是计算key的hash值
        return (e = getNode(hash(key), key)) == null ? null : e.value;
    }
	// key相同就返回对应节点对象
    final Node<K,V> getNode(int hash, Object key) {
        Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
        // table不为空
        if ((tab = table) != null && (n = tab.length) > 0 &&
            (first = tab[(n - 1) & hash]) != null) {
            // first = tab[(n - 1) & hash,通过(n-1)&hash获取位置,得到table对应位置的节点
            if (first.hash == hash && // 先判断第一个
                ((k = first.key) == key || (key != null && key.equals(k))))
                return first;
            if ((e = first.next) != null) { // 接着判断后面的节点树的或者list的
                if (first instanceof TreeNode)
                    return ((TreeNode<K,V>)first).getTreeNode(hash, key);
                do {
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        return e;
                } while ((e = e.next) != null);
            }
        }
        return null;
    }
三、总结
  • 创建HaspMap对象时,不会初始化table数组,当有指定加载因子或者初始容量时,会计算出符合要求的初始容量
  • 存入数据时,根据特定算法计算出在table中位置,然后判断key是否相等,并且存入时list长度等于8并且table长度>=64时,才会将list转换成树,否则进行table扩容
  • table扩容为原来2倍,扩容阈值也会进行变大
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值