java HashMap源码解析

前言


HashMap在开发中使用非常广泛,也是Java面试中必不可少的部分。所以适当的了解HashMap原理对我们很有帮助。

首先分析下面HashMap的结构图:

HashMap结构
从上图我们可以看到:HashMap是由数组和单向链表组成的,左边是一个Entry<K,V>[] table数组。右边是一个单向链表,每一个节点是Entry<K,V>。对于不了解单向链表的可以参考我上篇文《Java实现单向链表功能》。下面我们开始分析HashMap的源码,后续对比一下JDK1.8和JDK1.7的区别。

##问题
在分析源码之前,我们先提出这几个问题:

  1. 数组怎么跟链表结合的?
  2. 哈希冲突是什么?
  3. HashMap的扩容是什么?
  4. 门限值,负载因子,容量和元素数量究竟有什么关系?
  5. 负载因子为什么是0.75,能否修改?

下面我们先从JDK1.7开始分析源码,并解决上面的几个问题。

##源码分析(JDK1.7)
#####首先看看HashMap几个关键的成员变量:

    //默认HashMap容量16
    static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
    //默认负载因子0.75
    static final float DEFAULT_LOAD_FACTOR = 0.75f;

    static final Entry<?,?>[] EMPTY_TABLE = {};
    //首先创建一个table数组
    transient Entry<K,V>[] table = (Entry<K,V>[]) EMPTY_TABLE;

     //门限值
    int threshold;

    //负载因子,默认是0.75
    final float loadFactor;

####构造函数

    public HashMap() {
        this(DEFAULT_INITIAL_CAPACITY, DEFAULT_LOAD_FACTOR);
    }

我们平常使用无参的构造方法,那么默认负载因子就是0.75,默认容量就是16

####put方法

public V put(K key, V value) {
        //如果table数组为空,那么初始化数组。
        if (table == EMPTY_TABLE) {
            inflateTable(threshold);
        }
        if (key == null)
            return putForNullKey(value);
        //hashcode再次处理
        int hash = hash(key);
        //与运算,判断当前插入的元素应该放在哪一个table[i]中
        //有可以说成放在第几个桶中(bucket)
        int i = indexFor(hash, table.length);
        for (Entry<K,V> e = table[i]; e != null; e = e.next) {
            Object k;
            //for循环遍历当前桶的链表,如果存在相同的key,则替换当前值
            if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
                V oldValue = e.value;
                e.value = value;
                e.recordAccess(this);
                return oldValue;
            }
        }

        modCount++;
        //如果HashMap不存在该元素,则新增一个
        addEntry(hash, key, value, i);
        return null;
    }
  1. 先看for循环部分的代码:
Entry<K,V> e = table[i]; e != null; e = e.next

结合注释我们明白到,要轮询单向链表,必需从链表的头部开始,那么得出 table[i] 就是我们第i个链表的头部head。

  1. 第1点结论我们还可以通过addEntry方法验证,看代码:
   void addEntry(int hash, K key, V value, int bucketIndex) {
        //扩容
        if ((size >= threshold) && (null != table[bucketIndex])) {
            resize(2 * table.length);
            hash = (null != key) ? hash(key) : 0;
            bucketIndex = indexFor(hash, table.length);
        }
        //创建一个新元素
        createEntry(hash, key, value, bucketIndex);
    }

    void createEntry(int hash, K key, V value, int bucketIndex) {
        Entry<K,V> e = table[bucketIndex];
        //将key,value传入创建一个新的Entry,并赋值table[i],
        table[bucketIndex] = new Entry<>(hash, key, value, e);
        //HashMap包含的元素加1
        size++;
    }
static class Entry<K,V> implements Map.Entry<K,V> {
        final K key;
        V value;
        Entry<K,V> next;
        int hash;
         //创建一个新Entry,并把新创见的next指向传入的 Entry<K,V> n
        Entry(int h, K k, V v, Entry<K,V> n) {
            value = v;
            next = n;
            key = k;
            hash = h;
        }
}

addEntry扩容部分先不用看,主要看createEntry方法。
实际上createEntry的工作就是:

  1. 把新put进来的entry赋值给table[i]。
  2. 把当前的table[i].next指向以前的table[i]。跟上篇文章《Java实现单向链表功能》add方法类似。

####那么我们就可以解决提出的问题:

#####1.数组怎么跟链表结合的?
#####数组table[i]存储我们每一条链表的头部head,而head连接后面新put进来的Entry。
#####2.哈希冲突是什么?
#####h哈希冲突简单来说执行put方法之后算出的 i 是相等的,相当于放在同个table[i],也就是同一条链表上。

###扩容resize方法
在addEntry方法我们曾经见过resize方法,下面看一下resize逻辑

void resize(int newCapacity) {
     ------------省略部分代码---------

        //创建一个新的table数组, table的长度为newCapacity
        Entry[] newTable = new Entry[newCapacity];
        //newTable 赋值操作
        transfer(newTable, initHashSeedAsNeeded(newCapacity));
        //把操作完成的的newTable 赋值给table
        table = newTable;
        //门限值赋值等于当前的容量乘以负载因子。
        threshold = (int)Math.min(newCapacity * loadFactor, MAXIMUM_CAPACITY + 1);
    }

    /**
     * Transfers all entries from current table to newTable.
     */
    void transfer(Entry[] newTable, boolean rehash) {
        int newCapacity = newTable.length;
        //for,while循环,遍历所有HashMap所有的元素
        for (Entry<K,V> e : table) {
            while(null != e) {
                Entry<K,V> next = e.next;
                //是否重新hash
                if (rehash) {
                    e.hash = null == e.key ? 0 : hash(e.key);
                }
                //取出所有的并且计算i,用来判断放在哪一条链表上
                int i = indexFor(e.hash, newCapacity);
                //把属于该链表上的Entry重新串起来
                e.next = newTable[i];
                newTable[i] = e;
                e = next;
            }
        }
    }

结合上面的代码以及注释得出扩容过程:

  1. 创建一个新数组newTable,长度为newCapacity。不知道大家还有没有印象,在addEntry方法中的扩容逻辑 resize(2 * table.length),那么说明HashMap每一次扩容都是以前的2倍。
  2. 取出HashMap所有的Entry,重新计算 i 值,并且将第 i 条链表上的所有Entry重新串起来。赋值给新创建的newTable 。
  3. 把操作完成的newTable 重新赋值table上。
  4. 重新计算门限值。

####那么我们就可以解决提出的问题:

#####1.HashMap的扩容是什么?
#####扩容:增加HashMap容量,相当于增加table数组的length,容纳更多新put的Entry。
#####2.门限值,负载因子,容量和元素数量究竟有什么关系?
#####1)门限值 = 负载因子*容量。
#####2)那么与元素数量有什么关系呢?在addEntry方法曾经看到

if ((size >= threshold) && (null != table[bucketIndex])) {
    resize(2 * table.length);
    --------省略-----------
}

#####那么也就是说当HashMap的size超过门限值的时候,HashMap就会扩容,一次扩容2倍。

JDK1.7大概就分析到这里。

##JDK1.8的主要变化
JDK1.8比JDK1.7改动了很多,特别性能上优化,但HashMap主体结构还是一样的。下面主要对比一下put方法的逻辑。截取关键的部分代码分析。

    public V put(K key, V value) {
        return putVal(hash(key), key, value, false, true);
    }

    final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
        Node<K,V>[] tab; Node<K,V> p; int n, i;
       -----------------------省略---------------------------
        //首先计算属于i值,判断属于那一条链表,
        //当该条链表为空时直接赋值当前的Entry。
        if ((p = tab[i = (n - 1) & hash]) == null)
            tab[i] = newNode(hash, key, value, null);
        else {
            Node<K,V> e; K k;
           -----------------------省略---------------------------
               //把新put进来的元素添加链表上,相当于我们JDK1.7的createEntry方法。
                for (int binCount = 0; ; ++binCount) {
                    if ((e = p.next) == null) {
                        p.next = newNode(hash, key, value, null);
                        //当一条链表的Entry的数量大于TREEIFY_THRESHOLD - 1进行树化
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            treeifyBin(tab, hash);
                        break;
                    }           
                    p = e;
                }
            }
           -----------------------省略---------------------------
        }
        ++modCount;
        //当size大于门限值执行resize扩容。
        if (++size > threshold)
            resize();
        afterNodeInsertion(evict);
        return null;
    }

从代码可以看出JDK1.8和JDK1.7逻辑大体相同,值得注意一下的是“树化”,请看下图:

树化

#####树化简单来说就是将以前的链表形式改成红黑树结构,那我们为什么要改成这种结构?
#####在元素put过程中,如果发成哈希冲突,则算出来的 i 会相等,存放在一个桶中组成一个链表。我们都知道链表查询线性的,再put过程中都会遍历某个桶整个链表,会严重影响存储性能。有关红黑树的就不展开了,有兴趣的可以查阅相关资料。

我们剩下最后一个问题

#####负载因子为什么是0.75,能否修改?
#####1. 轮询长链表是耗费性能。HashMap理想状态是每一个桶的元素都是相近的,也就是 0 - i 的链表长度都是相近的,性能是最好的。但是现实中并不是,极端时候会遇到某个桶的链表有N个数据,另外一个桶则没有数据,因为存数据是随机的,那么就不能保证 i 值能均匀分布。
#####2.负载因子默认0.75是sun公司经过无数测试总结出来的,也就是说等于0.75的时候发生哈希碰撞,性能最好的。那0.75能否修改?可以的。但是不推荐修改。
#####3.有些人会有疑问,例如我已经开辟了16个桶,为什么不存16个元素再重新resize(负载因子等于1),这不是浪费空间吗?这个问题答案是:因为哈希碰撞都是随机的,就算放置第15,16个元素,元素也不一定分在了15,16桶上,那么其他桶的链表就会变长了,影响性能。那我16个桶只放8个元素就扩容了(负载因子等于0.5)?这样的话就会很浪费内存空间了。0.75其实就是一个折中的数值吧。

######关于HashMap的源码分析到这里为止。下一节手动实现一个HashMap,欢迎关注!
######由于作者水平有限,如果错漏欢迎各位大神指出。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值